이미지:본지
이미지:본지

유럽연합(EU) 집행위원회(Commission of the European Communities)는 인공지능(AI)의 '고위험(High-Lisk)' 분야 사용을 규제하고 AI의 위험을 해결하고 유럽이 전 세계적으로 주도적 인 역할을 할 수 있도록 AI에 대한 강력한 최초의 입법 초안을 21일(현지시간) 발표했다.

총 108 페이지 분량의 입법 초안에는 원칙적으로 공공장소에서 실시간으로 사람들의 얼굴 촬영을 금지(live facial scanning of people in public places) 시키는 원격 생체 인식(Remote Biometric Identification) 금지와 학교, 직업 또는 대출 신청자를 선택과 같은 것에 대한 AI 사용 금지 등이 포함되어 있다.

특히, 사회적 점수(Social Scoring)와 인간의 행동을 조작하는 데 사용되는 시스템의 사용 금지, 아동과 장애인 등 사회약자를 대상으로 한 AI 사용 금지 등이 포함되어 있다. EU 안팎에서 AI를 개발하는 기업들은 이 정책이 채택될 경우 제안된 규정을 준수하지 않을 경우 전 세계 매출의 4%인 2천만 유로(약 270억원)의 벌금을 물 수 있다.

EC는 규제 입법 초안에 대한 네 가지 구체적인 목표를 열거했다. ▶EU 시장에 배치되고 사용되는 AI 시스템이 안전하고 기본권과 EU 가치에 관한 기존 법률을 존중하도록 보장하기 위한 것, ▶AI에 대한 투자와 혁신을 촉진하기 위한 법적 확실성 보장, ▶AI 시스템에 적용되는 기본권과 안전 요건에 대한 기존 법률의 지배구조와 효과적인 시행을 강화하기 위한 것, ▶합법적이고 안전하며 신뢰할 수 있는 AI의 개발을 촉진하기 위한 것 등이다.

마르그레테 베스타거(Margrethe Vestager) EU 집행위원회 위원이자 EC 디지털 시대 총괄 부사장은 성명을 통해 "EU는 AI가 신뢰할 수 있도록 하기 위해 새로운 글로벌 규범 개발에 앞장서고 있다"며, "이번 표준을 제정함으로써, 우리는 전 세계의 AI 윤리 기술을 위한 길을 다지고, EU의 그동안 경쟁력을 유지할 수 있도록 할 수 있습니다"라고 말했다.

EU의 이번 입법 초안(아래 첨부)은 여러 단계를 거쳐 최종적으로 오는 2023년 제정될 예정이다.

한편, EU는 지난해 2월 EU 집행위는 AI산업 육성전략을 담은 AI 백서와 데이터 공유 핵심 내용을 담은 데이터 전략 초안을 발표하면서 향후, 10년간 매년 200억 유로(약 27조원) 이상 AI 산업에 투자할 것이라고 밝혔었다.

EU는 보건의료·교통·보안·고용·법률시스템 등 5개 영역에서 인체에 위해를 가하거나 법적 분쟁 가능성이 존재하는 용도로 AI 기술을 사용하는 경우를 ‘고위험(High-Lisk)’군으로 정의하고 이를 제재 기준으로 정했다. 이에 따라 모든 고위험 AI 기술은 EU의 적합성 평가를 거쳐 인증을 획득해야만 사용할 수 있다.

데이터 수집과 활용에 있어서도 공용 데이터 저장소를 구축해 EU 기업과 개인들이 개인정보를 제외한 모든 정보에 접근 가능하도록 할 방침이다. EU와 동등한 수준의 데이터 법을 제정한 상호 신뢰 국가들과는 데이터 공유도 적극 장려한다.

보고서는 EU의 적합성 평가 인증 의무화는 EU 기업과 비(非)EU 기업 모두에게 적용되지만 사실상 이미 AI 시장을 독점하고 있는 미국·중국 등 소수의 글로벌 IT 기업을 견제하기 위한 조치”라며. “공용 데이터 저장소 구축과 데이터 공유 의무화도 일부 기업의 독점을 막기 위한 것이라고 설명했다.

또한 AI 산업 육성전략과 데이터 전략 발표를 통해 EU가 관련 분야 국제표준 확립 경쟁에서 한 발 앞서나가기 시작했다”고 평가하면서 “장기적으로 EU의 AI 기업이 미국과 중국의 IT 기업을 능가하는 기술역량을 확보하는데 큰 역할을 할 것이라고 예상했다.

 

 

저작권자 © 인공지능신문 무단전재 및 재배포 금지