[뉴스토마토 신상민 기자] 개인정보보호위원회가 생성형 인공지능(AI) 시대의 개인정보 보호와 산업 혁신을 함께 이끌기 위한 가이드라인을 발표했습니다.
개인정보위는 6일 '생성형 인공지능과 프라이버시' 오픈 세미나를 열고 '생성형 AI 개발·활용을 위한 개인정보 처리 안내서'를 공개했습니다. 올해 초부터 내부 검토와 외부 전문가 의견 수렴 과정을 밟았고, 이후 'AI 프라이버시 민·관 정책협의회'와 개인정보위 전체회의를 거쳐 공개본 내용이 확정됐습니다.
고학수 개인정보보호위원회 위원장(오른쪽에서 다섯번째)이 8월6일 오후 서울 중구 소재 정동1928아트센터에서 개최된 '생성형 인공지능과 프라이버시' 오픈 세미나에서 기념촬영을 하고 있다. (사진=개인정보보호위원회)
구민주 개인정보위 서기관은 "적용 대상은 생성형 AI를 개발·활용하면서 개인정보를 처리하는 기업과 기관"이라며 "상용 모델을 API로 연동해 쓰거나 오픈소스 모델을 파인튜닝해 서비스를 제공하는 경우도 포함된다"고 설명했습니다.
안내서는 △생성형 AI 개발·활용 생애주기를 4단계로 구분해 단계별 안전 조치를 제시하고 △정책·집행 사례를 토대로 불확실성 이 큰 이슈 해결 방안을 담았으며 △최신 기술 동향과 연구 성과도 반영했습니다.
구 서기관은 "목적 설정부터 전략 수립, AI 학습 및 개발, 시스템 적용 관리 등 4단계로 구성했다"고 설명했습니다.
안내서에 따르면 AI 개발 전 과정에서 개인정보 보호를 내재화하기 위해서는 개발 목적과 개인정보의 종류·출처별 적법 근거를 명확히 해야 하며 개발 방식에 따른 리스크 경감 방안도 마련해야 합니다. 학습·개발 단계에서는 데이터 오염이나 ‘탈옥’과 같은 위험에 대비한 다층적 안전 조치와 AI 에이전트 관리 방안을 포함하고, 적용·관리 단계에서는 정보 주체의 권리를 보장하는 구조를 갖추도록 했습니다.
또한 전체 과정은 개인정보보호책임자(CPO)를 중심으로 한 거버넌스를 기반으로 반복·고도화하는 방식을 권장했습니다.
개인정보위는 법적 기준이 불명확한 개인정보 학습 문제 등에 대해 구체적 사례 기반의 법 해석과 안전 조치 기준을 제시했습니다. 이를 통해 안내서의 실효성을 높인다는 계획입니다.
고학수 개인정보위 위원장은 “AI 발전에는 양질의 데이터가 필수이며, 그 과정에서 프라이버시 침해 우려와 부작용을 예방·방지할 수 있는 제도적 안전장치가 중요하다”며 “제도적 안전장치는 고속도로의 가드레일과 같다. 국민의 신뢰를 기반으로 AI 개발이 이뤄져야 한다”고 강조했습니다.
고학수 개인정보보호위원회 위원장이 8월6일 오후 서울 중구 소재 정동1928아트센터에서 개최된 '생성형 인공지능과 프라이버시' 오픈 세미나에서 인사말을 하고 있다. (사진=개인정보보호위원회)
신상민 기자 lmez0810@etomato.com