잠정 중단 이후 전반적으로 AI 윤리 점검, 스캐터랩 AI 챗봇 윤리 준칙 수립하고 인공지능이 생성한 문장 활용 및 선정적・공격적・편향적 발화를 탐지하는 ‘어뷰징 탐지 모델’ 접목 등 서비스 고도화

'이루다2.0' 이미지 캐릭터
'이루다2.0' 이미지 캐릭터

지난해 1월, 각종 논란과 이슈에 휩싸인 가운데 인공지능(AI) 챗봇 '이루다'는 결국 서비스를 중단해야 했다.

결국, 이루다는 성희롱 이슈도 아니고, 동성애 혐오 및 차별 이슈도 아닌, 개인 정보에 대한 처리 실수와 미비로부터 발생된 과정의 문제로 판단된다

서비스 잠정 중단 이후, 스캐터랩(대표 김종윤)은 스캐터랩 AI 챗봇 윤리 준칙을 제정하고 신뢰할 수 있는 인공지능 모델 개발에 역량을 집중해왔다. ‘이루다'는 누구에게나 좋은 친구가 되는 AI를 목표로 스캐터랩이 개발한 일상 대화형 챗봇(open-domain chatbot)이다. 

부족한 점을 집중적으로 보완한 이루다의 새로운 버전인 ‘이루다2.0’ 공식 출시에 앞서 서비스 전반에 걸쳐 AI 윤리를 점검하고 서비스를 고도화하면서 실제 사용자 의견을 받기 위한 클로즈 베타 테스트를 진행하고 있다.

먼저, 스캐터랩은 AI 기술 및 제품 개발 전반에 걸쳐 가이드라인이 될 수 있는 총 5가지 AI 챗봇 윤리 준칙을 수립했다.

스캐터랩 AI 챗봇 윤리준칙은 외부 사례 및 스캐터랩 지난 경험을 바탕으로 정리되었으며, AI 개발에 참여하는 기획자, 리서처, 엔지니어 등 전체 팀의 의견 수렴 및 동의 과정을 거쳤다. 사람은 자신에 대해 깊이 이해하고 성장할 수 있는 사람과의 ‘관계'를 통해 삶의 행복을 느끼기에, 모든 사람에게 소중한 관계를 선물할 수 있도록 ‘사람을 위한 AI 개발'을 하겠다는 것이 대원칙이다. 

이 외에도 다양한 삶의 가치 존중, 함께 실현하는 AI 챗봇 윤리, 합리적 설명을 통한 신뢰 관계 유지, 프라이버시 보호와 정보 보안 발전에 기여 등의 준칙을 담았다. 

이루다는 2020년 12월 23일 출시된 지 2주 남짓의 시간동안, 75만명에 가까운 이용자들이 루다와 대화를 나눴다.
이루다는 2020년 12월 23일 출시된 지 2주 남짓의 시간동안, 75만명에 가까운 이용자들이 루다와 대화를 나눴다.

스캐터랩 AI 챗봇 윤리를 기반으로 서비스도 고도화했다. 클로즈 베타 테스트가 진행되는 이루다2.0은 엄격하게 가명처리한 데이터베이스로 학습 과정을 거쳤으며, 개인정보보호를 강화할 수 있도록 인공지능 딥러닝 알고리즘이 생성한 문장으로 답변할 수 있도록 했다. 

대화 시 특정 단어뿐만 아니라 문맥을 탐지해 선정적이거나 공격적, 또는 편향적 문장에 대응할 수 있도록 ‘어뷰징 탐지 모델'을 접목한 것도 특징이다. 

이번 클로즈 베타 테스트는 스캐터랩 내부 알파 테스트 및 외부 전문가 테스트 이후 진행되는 일반인 사용자 대상 의견 수렴 및 개선 과정으로, 1월 4일까지 이루다 페이스북 페이지를 통해 신청을 받아 약 3천 명을 선정할 예정이다. 

베타 테스터로 선정된 사용자는 1월 11일부터 약 3주간 이루다2.0과 자유롭게 대화하면서 AI 챗봇이 대화 문맥을 이해하고 적절하게 답변하는지와 선정적・공격적・편향적인 단어나 문맥을 탐지해 대응하는지 등을 검토하게 된다.

 단, 베타 테스터로 선정된 사용자들은 이루다2.0과의 대화 경험을 외부에 공개하지 않는 것을 원칙으로 하며, 스캐터랩에 대화 경험에 대한 의견을 제출하는 방식으로 진행된다. 클로즈 베타 테스트 신청 관련 자세한 내용은 이루다 페이스북 페이지에서 확인할 수 있다.

한편, 스캐터랩은 클로즈 베타 테스트를 통해 AI 챗봇과의 대화 경험을 사용자 눈높이에서 바라보고, 사용자의 의견 및 개선 사항 등을 점검한 후 2022년 이루다2.0의 공식 출시 일정을 결정할 예정이다.

관련기사

저작권자 © 인공지능신문 무단전재 및 재배포 금지