개인정보 침해부터 차별·혐오 재생산까지…'이루다'가 불러온 AI 윤리 문제

입력 : 2021-01-11 오후 4:15:06
[뉴스토마토 배한님 기자] 스캐터랩이 개발한 인공지능(AI) 챗봇 '이루다'를 계기로 국내에서도 본격적으로 'AI 윤리' 관련 논쟁이 시작됐다. 사용자의 이루다 성희롱 논란으로 시작된 문제는 장애인·동성애자 혐오·차별 재생산에서 개인정보 침해 문제까지 확대되고 있다. 정부가 '국가 인공지능 윤리기준'을 마련한 지 한 달이 채 되지 않은 시점에 이같은 문제가 발생해 앞으로 AI 관련 윤리와 제도적 규제 이슈에 대한 논의가 더욱 활발해질 것으로 보인다. 
 
스캐터랩의 AI 챗봇 이루다. 사진/이루다 홈페이지 갈무리
 
11일 스캐터랩의 AI 챗봇 '이루다' 사용자들에 따르면, 이루다에게 '레즈비언'이나 '게이' 등 성소수자에 대해 물으면 "싫다", "혐오스럽다" 등 차별적인 답변을 하는 것으로 밝혀졌다. 장애인과 관련해서도 "불편하다"는 취지의 발언을 했다. 
 
소수자 차별 발언을 하는 AI 챗봇 이루다. 사진/이루다 이용자 대화 갈무리
 
동성애자나 장애인 등 소수자 차별 발언으로 AI가 차별과 혐오를 재생산하는 것은 '국가 인공지능 윤리기준'의 10대 핵심 요건 중에서도 '인권 보장'과 '다양성 존중'에서 벗어났다고 볼 수 있다. 특히 '다양성 존중' 요건에는 "성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화하고, 상용화된 인공지능은 모든 사람에게 공정하게 적용되어야 한다"고 명시돼 있다. 
 
이를 놓고 이재웅 전 쏘카 대표는 "성적지향이나 특정 종교, 장애 여부에 대해서 일상 대화에서 차별하거나 혐오하는 사람이 많아서 학습의 결과로 차별이나 혐오를 하게 됐다 하더라도 그것을 보정 없이 일반 대중에게 서비스하는 것은 큰 문제"라며 "혐오와 차별 문제가 해결되지 않으면 AI 서비스를 하면 안 된다"고 지적했다. 
 
이 전 대표는 "AI의 설계, 데이터 선정, 학습 과정에는 사람의 주관이 개입될 수밖에 없지만, 그 결과물이 최소한의 차별이나 혐오를 하거나 유도하지 않는지 사람이 들여다보고 판단해야 한다"고 덧붙였다. 
 
김정희원 애리조나주립대 커뮤니케이션학과 교수도 "한국 사회에서 여성, 성소수자, 장애인을 포함한 취약 계층의 이루다 사용 경험은 '혐오의 민낯'을 여과 없이 그대로 목격하는 것과 같다"며 "AI 개발 과정의 투명성, 정부 기관의 관리 감독, 그리고 정책적 뒷받침이 필요하다"고 주장했다. 
 
김 교수는 사용자의 이루다 성희롱 문제도 AI 개발 과정에서 반드시 염두에 두어야 할 기본 원칙인 '책임지는 AI'를 벗어난 것이라고 설명한다. 그는 "개발사 대표가 "AI를 향한 욕설과 성희롱은 사용자나 AI의 성별과 무관하게 일어나는 일"이라고 했는데 정말 AI의 나이, 성별, 계급 등과 같은 속성이 사용자의 커뮤니케이션 양태와 아무 상관이 없다고 믿는 것인가"라고 꼬집었다.  
 
누군가의 실명을 넣은 답변을 하고 있는 이루다. 사진/이루다 관련 커뮤니티
 
이루다의 AI 윤리 문제는 비단 혐오·차별에만 있는 것이 아니었다. 스캐터랩은 이루다 개발 과정에서 '국가 인공지능 윤리기준' 중 '프라이버시 보호' 요건도 충족하지 못했다. 이루다가 학습하는 과정에서 자사의 다른 서비스인 '연애의 과학' 사용자의 카카오톡 대화 100여 건을 제대로 된 고지 절차 없이 데이터로 활용한 것이다. 
 
그뿐만 아니라 활용한 데이터가 제대로 된 비식별화 과정을 거치지 않아 이루다 이용 과정에서 누군가의 실명이나 주소 등 개인정보가 공개되기도 했다.  
 
개인정보수집 문제가 커지자 이용자들은 스캐터랩을 대상으로 법적 대응을 준비하고 있다. 개인정보보호위원회와 한국인터넷진흥원(KISA) 등 정부도 이루다에 대한 공동 조사를 준비 중이다. 
 
김정희원 교수는 AI 개발 과정에서 발생한 개인정보 침해 문제에 대해 "사용자는 나의 어떤 데이터가 어떻게 수집되는지, 알고리즘이 정확하게 무엇을 하는지, 이 데이터와 알고리즘이 어떤 시스템과 연동되는지에 대한 정보를 제공받고 그에 대한 통제권을 행사할 수 있어야 한다"고 강조했다. 
 
한편, 한국인공지능윤리협회는 AI의 편향성·개인정보유출·악용 등 윤리문제가 불거지자 "AI 기업에게 제품 출시 전 AI 윤리 가이드라인의 자율적 준수와 검증을 촉구한다"는 성명을 발표했다. 
 
전창배 한국인공지능윤리협회 이사장은 "국가 인공지능 윤리기준의 하위 상세조항이나 실천 조항을 우리 협회가 발표한 '인공지능 윤리헌장'에서도 찾을 수 있다"며 "AI 기업은 이를 참고해 제품과 서비스를 출시하기 전 AI 윤리 가이드라인을 확인하고 적용하거나, 중립적인 AI 윤리 전문 검수 기관을 통해 검증을 거친 후 출시하는 것이 바람직하다"고 말했다. 
 
배한님 기자 bhn@etomato.com
 
ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지
배한님 기자