과기정통부 “인공지능 경쟁력을 확보하기 위해서 사회적 신뢰 확보 선행 필요”

이미지:본지DB
이미지:본지DB

챗GPT의 세계적인 열풍 속에 지난달 30일,  美인공지능 및 디지털정책센터(Center for AI and Digital Policy, CAIDP)가 오픈AI의 생성 AI 모델이자 대형언어모델(LLM) GPT-4가 출시된지 15일만에 "편향적이거나 속이는 것"을 막기 위한 안전 장치가 마련될 때까지 GPT의 추가 상업적 배포를 중단할 것을 美연방거래위원회(US Federal Trade Commission. 이하, FTC)에 제소했다.

이어 31일 이탈리아 데이터보호청은 이탈리아 국민의 데이터를 무단으로 수집하고 있으며, 개인정보 유출 우려가 있다며 자국 내 챗GPT 사용을 잠정적으로 금지했다. 여기에 독일 및 EU도 심층 조사에 들어갔다. 

늦었지만 국내에서도 지난 7일 초거대·생성 AI 모델 확산에 대응하여 인공지능 윤리와 신뢰성을 확보하기 위하여 과기정통부는 학계, 산업계, 법조계, 교육계 전문가와 함께 인공지능 윤리정책 포럼을 구성하여 관련된 사회적 논의를 본격적으로 시작했다.

과학기술정보통신부(장관 이종호, 이하 과기정통부)는 정보통신정책연구원(원장 권호열, 이하 KISDI)과 한국정보통신기술협회(회장 최영해, 이하 TTA)와 함께 7일 서울 서초구 엘타워에서 ‘제2기 인공지능 윤리정책 포럼’ 출범식을 개최했다.

지난 제1기 인공지능 윤리정책 포럼(‘22년)은 유네스코 윤리권고 등 주요 이슈에 관한 논의와 자율점검표·개발안내서 등 주요 정책과제에 대해 사회 각계가 참여하는 공론의 장 제공했다.

이날 출범한 제2기 인공지능 윤리정책 포럼에서는 지난해 의견수렴을 거친 ‘인공지능 윤리기준 실천을 위한 자율점검표(안)(챗봇, 작문, 영상 분야)’ 및 ‘신뢰할 수 있는 인공지능 개발안내서(안)(일반, 공공사회,의료, 자율주행 분야)’를 공개했다.

아울러, 대형언어모델(Large Language Model, LLM) 및 생성 인공지능(generative AI)의 확산과 이에 따른 거짓정보의 확산, 알고리즘의 편향성, 사생활 침해 등 부정적 영향에 대한 각종 우려가 제기되고 있는 상황에서 인공지능 윤리·신뢰성 확보를 위해 필요한 정책 방향에 관한 종합토론을 진행하였다.

향후 지속적인 포럼을 통해 관련 기술 및 윤리 이슈에 대한 국내·외 동향을 살피고 윤리적이고 신뢰할 수 있는 초거대·생성형 인공지능이 개발·운영될 수 있도록 균형잡힌 시각에서 우리나라 인공지능 윤리정책 방향을 제시하고, 신뢰성 검·인증 체계 구축 등 주요 관련 정책과제에 대한 의견수렴을 진행해 나갈 계획이다.

이를 위해, 김명주 서울여자대학교 정보보호학과 교수가 포럼위원장을 맡고, 인공지능, 철학, 교육, 법, 행정 등 분야별 전문가를 비롯해 인공지능 산업계 종사자까지 포함하여 총 30명이 포럼위원으로 활동한다.

포럼은 운영의 효율성과 논의의 전문성을 높이기 위해 3개의 전문분과위원회로 구성하여, ▷인공지능 윤리체계 확산(이하, 윤리분과), ▷인공지능 신뢰성 확보 기술 기반 마련(이하, 기술분과), ▷인공지능 리터러시 및 윤리교육 강화(이하, 교육분과)의 큰 주제 안에서 세부적인 논의를 진행할 계획이다.

▶윤리분과(분과장 문정욱 KISDI 지능정보사회정책센터장)는 초거대·생성형 인공지능의 편향성, 허위정보 등 역기능 대응 방안, 책임성·투명성 확보 방안 등에 대해 논의하고 ‘인공지능 윤리영향평가 프레임워크’ 개발에 대한 의견수렴을 진행할 계획이다.

▶ 기술분과(분과장 이강해 TTA AI디지털융합단장)는 초거대·생성형 인공지능의 위험요소 도출 및 신뢰성 확보를 위한 평가 데이터 구축과 기술 확보 방안 등 기술적인 쟁점을 논의하고, ‘인공지능 신뢰성 검·인증 체계’ 수립에 대한 의견수렴을 진행할 예정이다.

특히 ‘22년도에 인공지능 기업대상으로 컨설팅을 진행하여 신뢰성 확보 여부를 진단하고 편향성 완화를 위한 보호변수 고려 및 성능 악화시 기능적·절차적 대책 마련 등의 개선사항을 제시한 바 있으며, 향후 포럼 운영과정에서 개선실적에 대해 확인 및 검토해나갈 예정이다.

▶교육분과(분과장 변순용 서울교대 윤리교육과 교수)는 초거대·생성형 인공지능의 악의적 사용을 완화·방지하기 위한 윤리적 활용방안 등 교육 관련 쟁점을 논의하고, 일반인 대상 인공지능 윤리교육 콘텐츠 개발에 대한 의견수렴을 진행할 예정이다.

출범식에 참석한 과기정통부 엄열 인공지능기반정책관은 “제2기 인공지능 윤리정책 포럼이 인공지능 생태계에 속하는 다양한 이해관계자의 의견을 수렴하여 인공지능 윤리정책의 방향에 관한 사회적 합의를 마련하는데 기여하고, 인공지능 윤리와 신뢰성을 확산하여 관련 기술·산업 기반을 조성하는데 중추적 역할을 수행해주기 바란다.”고 당부했다.

저작권자 © 인공지능신문 무단전재 및 재배포 금지