이날 '제4차 인공지능 최고위 전략대화'를 주재한 이종호 장관과 고학수 위원장(사진:과기정통부)
이날 '제4차 인공지능 최고위 전략대화'를 주재한 이종호 장관과 고학수 위원장(사진:과기정통부)

과학기술정보통신부(이하, 과기정통부) 이종호 장관은 25일, 개인정보보호위원회 고학수 위원장 및 인공지능(AI) 분야 민간 최고위 관계자들과 함께 인공지능 위험성 우려에 대응하여 안전한 인공지능 확산방안을 논의하기 위해 '제4차 인공지능 최고위 전략대화'를 개최했다.

이번 행사는 지난 9월 '대한민국 초거대 인공지능 도약' 행사에서 기업들이 인공지능 신뢰성 강화를 위해 필요한 안전조치를 자발적으로 마련하겠다고 약속했던 선언의 후속으로 마련되었다.

또한 과기정통부는 그간 진행한 간담회와 현장방문 등에서 수렴한 의견들을 토대로‘인공지능 윤리·신뢰성 확보 추진계획’을 발표하여 향후 민·관이 함께 나아가야 할 방향에 대해 공유하였다.

인공지능 윤리·신뢰성 확보 추진계획은 민간 자율 인공지능 윤리·신뢰성 확보 지원, 세계를 선도하는 인공지능 윤리·신뢰성 기술·제도적 기반 마련, 사회 전반 책임 있는 인공지능 의식 확산 등 인공지능 윤리·신뢰성 모범국가를 위한 내용이며 세부 추진과제 내용은 다음과 같다.

첫째, 주요국과 국제기구들이 인공지능 신뢰성 확보를 산업 발전의 전제로 인식하여 가이드라인 등 자율 실천방안을 제시하는 상황에서, '국가 인공지능 윤리기준'의 구체적 실천수단으로 채용, 생성형 인공지능 기반 서비스 등 분야별 가이드라인을 마련·확대하고 민간 자율 신뢰성 검·인증을 11월부터 추진할 계획이다. 

특히, AI 사업 중 고위험 영역 인공지능 개발·실증 사업을 수행하는 기업을 일부 선정하여 금년 12월에 시범 인증을 추진할 예정이다.

둘째, 인공지능 자체가 내포하는 편향성, 불투명성 등 기술적 한계와 인공지능 오작동 등에 따른 인공지능의 잠재 위험요인에 대응하기 위하여 기존 인공지능의 한계를 극복하고 초거대 인공지능의 신뢰성을 확보하기 위한 기술개발을 내년부터 신규로 추진할 예정이다.

셋째, 챗GPT 등과 같은 생성 인공지능(GenAI)의 확산으로 인공지능이 가져다 줄 혜택에 대한 기대와 함께 안전에 대한 위험성 우려가 확대되는 상황에서 인공지능이 생성한 결과물에 대한 워터마크 도입의 제도화를 검토하고, 고위험 인공지능에 대한 해설서를 마련(’24.1분기)하는 등 신뢰성 확보를 위한 제도 정립 과제를 추진할 방침이다.

이날 민간에서는 김유철 LG AI 연구원 부문장이 ‘인공지능 윤리원칙 실행을 위한 기업의 노력’을 주제로 발표하고, 이어 JLK 김동민 대표가 ‘고위험 인공지능 분야에 대한 신뢰성 검·인증의 필요성’에 대하여 발표하였다.

발표에 이어 세 가지 주제에 대한 토론이 진행되었다. 우선 첫 번째로 ‘인공지능 산업발전과 신뢰성 확보의 균형을 위한 민간자율 검·인증 추진방향’에서는 일반영역 및 고위험영역 인공지능의 신뢰성 검·인증이 나아가야 할 방향에 관한 논의가 이뤄졌다.

두 번째로는‘초거대·생성형 인공지능의 신뢰성 향상을 위한 자발적 노력’에 대한 논의가 있었으며 기업들은 인공지능 생성물에 워터마크 도입, 신뢰성 확보 기술개발 및 책임있는 거버넌스 구축 등 기업의 자발적인 노력을 공유하였다.

초거대 인공지능 기업들은 인공지능이 생성한 결과물에 대한 ‘가시적 워터마크’ 도입이 필요하다는 점에 공감하였고, 기술적 완성도를 고려하여 자사 서비스에 단계적으로 적용하는 것에 동의하였다.

마지막 주제인‘인공지능 윤리의식 확산 및 글로벌 규범 선도를 위한 제언’에서는 인공지능 윤리교육과 전문 인력의 필요성, 인공지능 윤리·신뢰성 표준 제정의 중요성 및 글로벌 인공지능 규범을 선도하기 위한 방안 등이 논의되었다.

이종호 장관과 고학수 개인정보위 위원장이 25일 서울 강서구 LG사이언스파크에서 열린 '제4차 인공지능 최고위 전략대화' 참가자와 기념촬영 하고 있다(사진:과기정통부)
이종호 장관과 고학수 개인정보위 위원장이 25일 서울 강서구 LG사이언스파크에서 열린 '제4차 인공지능 최고위 전략대화' 참가자와 기념촬영 하고 있다(사진:과기정통부)

이날 '제4차 인공지능 최고위 전략대화'에는 이종호 과기정통부 장관, 고학수 개인정보위원장, 임용 서울대학교 교수와 초거대AI 기업 네이버, SKT, KT. 카카오, LG AI 연구원 등의 책임자와 이스트소프트, JLK, 셀렉트스타, 스냅태그, 코난 테크놀로지 등의 각 대표가 참석했다.

이종호 장관은“인공지능은 디지털 심화 시대의 핵심기술로서 인공지능의 신뢰성과 안전성을 확보하기 위한 노력이 무엇보다 중요하다”면서 “민간 자율 인공지능 신뢰성 검·인증 지원을 비롯한 인공지능 윤리 생태계 기반 조성과, 적합한 규제 체계를 정립해가는 데 힘쓰고, 관계부처와 함께 인공지능 윤리·신뢰성을 확보할 수 있는 정책방안을 보완하여 새로운 디지털 질서의 모범이 되기 위하여 최선을 다하겠다.”고 밝혔다.

한편, 지난 7월 21일, 美 바이든 행정부는 AI의 엄청난 잠재력과 AI로 인한 위험을 관리하며, 미국인의 권리와 안전을 위해 그동안 긴급하게 움직여왔다며, 이를 위해 인공지능에 관련한 행정 명령을 개발하고 초당파적인 입법을 추진함으로써 지속적으로 결정적인 조치를 취할 것이라고 밝혔었다.

이러한 노력의 일환으로 바이든 대통령은 백악관에서 메타(Meta)를 비롯한 아마존(Amazon), 앤트로픽(Anthropic), 구글(Google), 인플렉션(Inflection), 마이크로소프트(Microsoft), 오픈AI(OpenAI) 등 선도적인 생성 AI 및 인공지능 기업 7개사를 불러들이고 바이든-해리스 행정부가 안전하고 투명한 AI 기술 개발을 위해 이들 기업으로부터 자발적인 약속을 받았다.

이날 조 바이든(Joe Biden) 대통령이 7개의 선도적인 AI 기업으로부터 받아낸 자발적인 약속, 세 가지 원칙과 세부 내용(보기)에는 '워터마킹(워터마크)' 시스템과 같은 강력한 기술 메커니즘을 개발하여 사용자가 언제 콘텐츠가 AI로 생성되었는지 알 수 있도록 하는 것으로 이러한 조치를 통해 AI를 활용한 창의성이 더 발전할 수 있도록 하는 동시에 사기와 속임수의 위험성을 줄인다는 내용도 포함됐다.

이에 메타(Meta)는 지난 6일, 디지털 과학 및 기술을 위한 프랑스 국립연구소(French national research institute) '인리아(Inria)'와 함께 오픈 소스 생성 AI 모델이 이미지가 생성될 때를 식별하기 위해 사람 눈에 보이지 않는 워터마킹 기술인 '스테이블 시그니처(Stable Signature-보기)'를 개발하고 누구나 이용할 수 있는 오픈 소스로 지난 공개했다.

이 보이지 않는 워터마킹(Watermarking) 시스템은 정보를 디지털 콘텐츠에 통합한다. 워터마크는 육안으로는 보이지 않지만 사람들이 이미지를 편집하더라도 알고리즘에 의해 감지될 수 있다. 그동안 워터마킹에 관한 많은 연구가 있었지만 기존의 방법은 이미지가 생성된 후 워터마크를 생성시키는 것이 대부분이다.

메타가 공개한 '스테이블 시그니처'는 오픈 소스 생성 AI 모델에서 가져온 이미지에 워터마크를 추가하는 솔루션이다. 또, 이 솔루션은 이미지가 생성된 위치를 추적할 수 있는 워터마크를 모델에 루팅하여 워터마크를 제거할 수 있는 가능성을 완전히 차단한다.

 

저작권자 © 인공지능신문 무단전재 및 재배포 금지