'이루다' 사태 방지…교육부 'AI 윤리원칙' 첫 마련

"인간 존엄성 존중하고 잠재적 위험 고려해야"
'사람 성장 지원' 대원칙 중심 10대 세부과제 제시

입력 : 2022-08-10 오후 1:29:06
 
[뉴스토마토 김지영 기자] 인공지능(AI)을 교육 현장에 도입하려는 시도가 활발해지면서 교육부가 관련 첫 윤리원칙을 마련했다.
 
교육부는 AI가 윤리적으로 개발되고 안전하게 활용될 수 있도록 개발자와 교육 당사자들이 준수할 '교육 분야 인공지능 윤리원칙'을 10일 확정·발표했다.
 
윤리원칙으로는 '사람의 성장을 지원하는 인공지능'을 대원칙으로 10대 세부원칙을 제시했다. 주요 원칙은 △교육당사자의 안전을 보장한다 △인간 성장의 잠재성을 이끌어낸다 △교육의 기회균등과 공정성을 보장한다 △사회 공공성 증진에 기여한다 △데이터 처리의 투명성을 보장하고 설명 가능해야 한다 △데이터를 합목적적으로 활용하고 프라이버시를 보호한다 등이다. 이는 지난 1월 27일 시안 발표 후 공청회, 전문가 간담회, 국제 의견 조회를 거쳐 마련됐다.
 
특히 '교육당사자의 안전을 보장한다'는 원칙의 경우 지난해 윤리적으로 문제가 됐던 AI '이루다' 같은 사태 재발을 막기 위한 취지로 보인다. 이루다는 스타트업 스캐터랩이 개발한 AI 챗봇으로 지난해 성소수자나 흑인에 대해 혐오 발언을 해 논란이 된 바 있다. 교육부는 이 원칙에 대해 AI가 지닌 잠재적 위험을 방지하고 실효성 있는 피해 구제를 위해 책임주체를 명확히 설정해야 한다는 내용이라고 설명했다.
 
'인간 성장의 잠재성을 이끌어낸다' 원칙 또한 인간 존엄성에 대한 존중을 바탕으로 인간 성장의 잠재성을 이끌어낼 수 있도록 AI가 제공돼야 한다는 내용이다.
 
다만 이번에 마련된 윤리원칙은 자발적으로 실천해야 할 도덕적 규범일 뿐 강제성은 없다. AI 분야는 기술 발전이 빨라 예상치 못한 윤리적 이슈가 생길 수 있는 만큼 전 세계적으로 사후적 규제보다 예방적·자율적 규범이 강조되고 있다. 한국 또한 범정부 '인공지능 윤리기준'을 2020년 12월 제정해 분야별 여건에 맞는 윤리기준을 권고하고 있다.
 
교육부는 윤리원칙을 AI 윤리교육과 교원의 역량 강화 연수 자료 등에 활용한다는 방침이다. 또 관련 연구 촉진과 교육기술(에듀테크) 기술과의 협업 지침으로 활용하는 등 구체적 실천에도 나선다는 계획이다.
 
아울러 AI 기술 발전과 교육 현장에서의 활용 실태 등을 고려해 원칙의 타당성 검토 조치를 주기적으로 실시할 예정이다.
 
오석환 교육부 기획조정실장은 "인공지능이 미래세대의 인지(사고)·정서에 미치는 영향이 클 수 있는 만큼, 교육 분야 인공지능의 개발과 안전한 활용이 균형을 이룰 수 있도록 교육계·산업계와 지속해서 소통하고 협력하겠다"고 밝혔다.
 
(자료=교육부)
 
김지영 기자 wldud91422@etomato.com
ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지
김지영 기자