과기정통부, '신뢰할 수 있는 인공지능 실현전략' 발표... 인공지능 제품·서비스에 대한 민간 자율의 인증제 도입·지원 등 오는 2025년까지 지속·단계적으로 추진할 계획

과학기술정보통신부(장관 최기영. 이하, 과기정통부)는 13일, 대통령 직속 4차산업혁명위원회 제22차 전체회의에서 ’사람이 중심이 되는 인공지능(AI)을 위한 신뢰할 수 있는 인공지능 실현전략‘을 발표했다.

'누구나 신뢰할 수 있는 인공지능, 모두가 누릴 수 있는 인공지능 구현'을 위한 3대 전략 10대 실천과제 제시를 제시하고 오는 2025년까지 지속·단계적으로 추진할 계획이다.

이날 발표한 신뢰할 수 있는 인공지능 실현전략의 핵심으로는 ▷신뢰구현 법제도·윤리·기술적 요구사항을 종합한 인공지능 ‘개발 가이드북’ 제작·보급 ▷인공지능 제품·서비스에 대한 민간 자율의 인증제 도입·지원 ▷인공지능 일괄(One-Stop) 지원 플랫폼 운영 : 데이터 - 컴퓨팅 파워 – 신뢰성 검증 지원 ▷설명가능성·공정성·견고성 등 향상을 위한 신뢰성 원천기술 개발 추진한다.

또한 ▷학습용 데이터의 신뢰성 확보를 위한 표준 기준 제시 및 데이터 개방 ▷고위험 인공지능에 대한 국민 안전·신뢰성 향상 방안 연구 ▷인공지능 윤리기준 실천을 위한 윤리 교육 강화 및 개발자·이용자용 체크리스트 보급 ▷윤리·신뢰성 향상을 위한 공론의 장인 ’윤리 정책 플랫폼‘ 운영 등을 꼽을 수 있다.

수립배경배경으로는 4차 산업혁명을 견인하는 범용기술인 인공지능이 전 산업・사회에 빠르게 도입・확산되며 혁신을 창출하고 있으나, 최근 확산에 따른 예상하지 못한 인공지능 챗봇 ‘이루다', 딥페이크 악용문제 등의 사회적 이슈와 우려도 함께 대두되고 있다.

이에, 주요국은 인공지능에 대한 사회적 신뢰(Trust) 확보를 인공지능의 사회적·산업적 수용의 전제요소로 인식하고, 인공지능의 신뢰성을 강조하며 그 실현을 위한 적극적인 정책을 추진하고 있다.

특히, 유럽연합(EU) 집행위원회(Commission of the European Communities)는 인공지능(AI)의 '고위험(High-Lisk)' 분야 사용을 규제하고 AI의 위험을 해결하고 유럽이 전 세계적으로 주도적 인 역할을 할 수 있도록 AI에 대한 강력한 최초의 입법 초안을 지난달 21일 발표했다.

미국은 기술개발과 민간 자율규제를 중심으로 인공지능에 대한 신뢰성 확보를 추진 중에 있으며, 국가 인공지능 연구개발 전략으로 2019년 ‘기술적으로 안전한 인공지능 개발’ 채택했다. 기업 역시 IBM, MS, 구글 등을 중심으로 인공지능 개발원칙 마련, 공정성 점검도구 개발・공유 등 윤리적 인공지능 실현을 위한 자율규제 전개하고 있다.

프랑스는 기업・시민 등 3천명이 참여한 숙의적인 공개 토론을 통해 ‘인간을 위한 인공지능’ 구현에 필요한 권고사항 도출하고 영국은 2018년부터 5대 윤리규범을 시작으로, 공공부문 안전한 인공지능 활용을 위한 지침 등과 설명 가능한 인공지능 가이드라인 등을 최근까지 수립하고 있다.

이러한 흐름 속에서, 정부는 사람이 중심이 되는 ‘인공지능 강국’으로 도약하기 위해 신뢰할 수 있는 인공지능 실현을 위한 지원 정책이 조속히 필요하다는 판단에 따라 이번 전략을 마련하였다.

이번 전략은 지난해 12월 발표한 '인공지능 윤리기준'의 실천방안을 구체화하고, 민간 자율적으로 신뢰성을 확보할 수 있도록 지원체계를 구축하며 재정·기술력이 부족한 스타트업 등에 대한 지원책을 담은 것이 특징이다.

특히, 이번 전략 '누구나 신뢰할 수 있는 인공지능, 모두가 누릴 수 있는 인공지능 구현'을 비전으로 하여, 기술・제도・윤리 측면의 3대 전략과 10대 실행과제를 통해 ‘25년까지 단계적으로 추진된다.

여기에, 민간의 인공지능 서비스 구현을 체계적으로 지원하고, 이용자가 믿고 안전하게 사용할 수 있도록 제도를 보완하며, 사회 전반에 건전한 인공지능 윤리를 확산하는 것이 중점 방향이다.

주요 내용으로는 

먼저, ▶신뢰 가능한 인공지능 구현 환경 조성으로 ▷인공지능 제품·서비스 구현단계별 신뢰 확보 체계를 마련하고 민간에서 AI 제품・서비스를 구현하는 단계(개발→ 검증→ 인증)에 따라, 기업, 개발자, 제3자 등이 신뢰성 구현을 위해 참조할 수 있는 신뢰 확보 기준과 방법론을 제시하고 지원한다.

‘개발’단계에서는 국내・외 신뢰성 관련 법・제도・윤리・기술적 요구사항을 한 번에 확인할 수 있는 ‘개발 가이드북’을 제작・보급한다.

‘검증’단계에서는 개발 가이드북을 준수한 신뢰성 확보 여부와 그 수준을 확인하고 평가할 수 있는 검증절차・항목・방법 등의 ’검증체계’를 마련하고 제시한다.

‘인증’단계에서는 기술·윤리적 요구사항을 충족하여 검증체계를 통과한 제품·서비스에 대해 민간 자율 인증과 공시를 추진한다.

▷민간의 인공지능 신뢰성 확보를 지원한다.

기술・재정적 상황이 열악한 스타트업 등도 체계적으로 신뢰성을 확보해 나갈 수 있도록 인공지능 구현을 위한 ‘데이터 확보→ 알고리즘 학습→ 검증’을 통합 지원하는 플랫폼을 운영한다.

학습용 데이터와 컴퓨팅 자원을 지원 중인 인공지능 허브(AI Hub) 플랫폼에서 검증체계에 따른 신뢰 속성별 수준 분석, 실(實)환경 테스트 등의 기능을 추가 개발·연계하여 일괄적으로 지원한다.

▷인공지능 신뢰성 원천기술을 개발한다.

이미 구현된 시스템에 인공지능이 판단기준 등을 설명할 수 있는 기능을 추가할 수 있고, 인공지능이 스스로 법・제도・윤리적 편향성을 진단하고 효율적으로 제거할 수 있도록, 인공지능의 설명가능성, 공정성, 견고성 제고를 위한 원천기술 개발을 추진한다.

두번째로 ▶안전한 인공지능 활용을 위한 기반 마련한다.

이를 위해 ▷인공지능 학습용 데이터의 신뢰성을 제고한다.

민・관이 인공지능 학습용 데이터 제작공정에서 공통적으로 준수해야할 신뢰 확보 검증지표 등과 학습용 데이터 활용 목적에 따라 신뢰 확보 요구사항을 세분화・구체화하고 검증지표, 측정방법 등표준 기준을 민간과 함께 마련하여 통일성 있게 구축 될 수 있도록 확산한다.

▷고위험 인공지능에 대한 신뢰 확보를 추진한다.

국민의 안전이나 기본권에 잠재적 위험을 미칠 수 있는 고위험 인공지능의 범주를 설정하고, 서비스 제공 전에 해당 인공지능의 활용 여부를 이용자에게 ‘고지’하도록 할 계획이다.

고지 이후, 해당 인공지능 기반 서비스에 대한 ‘이용 거부’, 인공지능의 판단 근거에 대한 ‘결과 설명’ 및 이에 대한 ‘이의제기’ 등의 제도화에 대해서는 글로벌 입법・제도화 동향, 산업적 파급력, 사회적 합의・수용성, 기술적 실현 가능성 등을 고려하여 종합적으로 중장기 검토할 계획이다.

▷인공지능 영향평가를 실시한다.

인공지능이 국민생활 전반에 미치는 영향을 종합・체계적으로 분석하고 대응하기 위해 '지능정보화기본법'제56조에 규정된 사회적 영향평가를 도입할 계획이며, 신뢰성 요소(안전성, 투명성 등)를 토대로 인공지능의 영향력을 종합 분석하여 향후 인공지능 관련 정책이나 기술・관리적 조치방안 수립 시 활용할 계획이다.

▷인공지능 신뢰 강화를 위한 제도를 개선한다.

지난해 '인공지능 법・제도・규제 정비 로드맵'을 통해 발굴된 과제 중 인공지능에 대한 신뢰 확보, 이용자의 생명·신체보호 등과 관련된 과제인 ①업계 자율적 알고리즘 관리・감독환경 조성, ②플랫폼 알고리즘 공정성・투명성 확보, ③영업비밀 보장을 위한 알고리즘 공개기준 마련, ④고위험 기술기준 마련 등 관련 제도를 개선할 계획이다.

▷인공지능 신뢰 강화를 위한 제도를 개선한다.

지난해 12월 '인공지능 법・제도・규제 정비 로드맵'을 통해 발굴된 과제 중 인공지능에 대한 신뢰 확보, 이용자의 생명·신체보호 등과 관련된 과제인 ①업계 자율적 알고리즘 관리・감독환경 조성, ②플랫폼 알고리즘 공정성・투명성 확보, ③영업비밀 보장을 위한 알고리즘 공개기준 마련, ④고위험 기술기준 마련 등 관련 제도를 개선할 계획이다.

세번째로는 사회 전반 건전한 인공지능 의식 확산으로

▷인공지능 윤리 교육을 강화한다.

인공지능이 사회에 미치는 영향, 인간-인공지능 간 상호작용 등 사회·인문학적 관점과 윤리 기준의 사회 실천을 인식할 수 있는 내용을 담은 인공지능 윤리교육 총론을 마련하고, 이를 토대로 연구·개발자, 일반시민 등 맞춤형 윤리 교육을 개발·실시한다.

▷주체별 체크리스트를 마련・배포한다.

인공지능 윤리기준에 대한 구체적인 행위지침으로, 연구・개발자, 이용자 등이 업무, 일상생활 등의 속에서 윤리 준수 여부를 자율점검을 할 수 있는 체크리스트 개발하여 보급한다.

기술발전의 양상을 반영하고 인공지능 윤리기준을 기본원칙으로 하여 타 분야의 자율점검표(예: 개인정보위 개인정보보호 자율점검표)와도 체계성과 정합성을 유지하여 현장의 실천 가능성을 제고한다.

▷윤리 정책 플랫폼을 운영한다.

학계·기업·시민단체·공공 등 다양한 사회 구성원이 참여하여 인공지능 윤리에 대해 깊이 있게 토의하고 의견 수렴 및 발전방향을 논의하는 공론의 장을 마련・운영한다.

한편, 정부의 금번 전략 수립과 관련하여 과기정통부 최기영 장관은 최근 발생했던 AI 챗봇 '이루다' 사건은 우리 사회가 인공지능의 신뢰성에 대해 어떻게 대처해야 하는지 많은 숙제를 안기는 계기가 되었다’고 생각한다고 말했다.

이어 최기영 장관은 "과기정통부는 기업·연구자 등이 인공지능 제품·서비스 개발 과정에서 혼란을 겪거나 이로 인해 국민이 피해 보지 않도록 인공지능 신뢰 확보 기준을 명확화하고, 기술적·재정적으로 부족한 중소기업 등이 신뢰성 기준을 준수하는 데 어려움이 없도록 지원 방안을 마련하는 등 사람이 중심이 되는 인공지능 강국 실현을 위해 동 전략을 차질 없이 추진해나갈 계획이다"고 밝혔다.

참고로 13일, 관계부처 합동으로 발표된 사람이 중심이 되는 인공지능을 위한 신뢰할 수 있는 인공지능 실현 전략(안) 의 자세한 내용은 아래 첨부 파일을 참고하면 된다.

 

 

저작권자 © 인공지능신문 무단전재 및 재배포 금지