인공지능(AI) 챗봇 ‘이루다’를 둘러싸고 성희롱, 소수자 차별 등 문제가 계속되자 학계에서 “이루다 서비스를 중단하라”는 성명이 발표됐다.
한국인공지능윤리협회는 11일 성명서에서 “AI 챗봇으로 AI의 편향성, 개인정보 유출, 악용 등 AI 윤리 문제가 논란이 됐다”며 “AI 서비스를 만드는 기업들과 이용자들이 AI 윤리 필요성과 중요성을 아직 인식하지 못하는 상황”이라고 밝혔다.
이어 “AI에 학습되는 빅데이터는 신뢰할 수 있고 편향적이지 않아야 한다”며 “이번 (이루다) 사례에서는 데이터 정제·선별 작업이 제대로 이뤄지지 않아 AI 챗봇이 동성애·장애인 등에 대한 편향 결과를 그대로 노출했다”고 지적했다.
협회는 “AI 제품과 서비스는 출시 전 충분한 품질 검사를 거치고, 중립적인 기관의 검수도 거쳐야 한다”며 “AI는 기계학습 과정에서 인간이 예측하기 어려운 결과물을 내놓기 때문”이라고 강조했다.
협회는 이루다 서비스를 중단해야 한다고 주장했다. AI 윤리 가이드라인을 적용해 재출시 해야 한다는 설명이다.
또, 개인정보 유출 의혹에 관해서도 지적했다. 협회는 “카카오톡 대화를 챗봇 학습 데이터로 활용한다는 명확한 고지가 없었다”며 “카톡 대화의 상대방들은 개인정보 제공에 동의하지 않았기 때문에 문제 소지가 있다”고 했다.
협회는 AI 교육의 필요성도 역설했다. 초·중·고 청소년 시기부터 AI 개발 및 사용 윤리를 가르치고, 새로운 AI 윤리 이슈를 모든 시민에게 교육해야 한다는 주장이다. 이어 “AI는 인간의 편익과 행복을 위한 기술이지만, 잘못 개발·사용되면 위험성과 역작용이 막대할 것”이라고 덧붙였다.
한편, 이루다는 스타트업 스캐터랩이 지난달 출시한 AI 챗봇이다. 챗봇을 대상으로 성희롱 문제가 수면 위로 불거졌고, 이후 이 챗봇이 장애인, 성 소수자 등을 대상으로 혐오 발언을 한 것도 드러났다.