이미지:본지
이미지:본지

현지시간 8일, 각 정부의 생체 인식 감시에 인공지능(AI) 사용 및 챗GPT와 같은 AI 시스템을 규제하는 방법을 포함하여 인공지능 사용을 규제하는 인공지능법(AI Act)에 대한 EU 국가들과 유럽의회 의원들 간의 합의에 성공했다.

앞으로 며칠 안에 세부 사항을 논의할 예정이며, 이로 인해 최종 법안의 형태는 바뀔 수 있으나 큰 틀에서의 '인공지능법(AI Act)'은 유럽의회의 지난 6월 채택안(다운)에 따를 것으로 예상된다. 다만 법률 제정 이후 2년간의 유예기간을 둔다. 

이는 지난 6월 14일, 유럽의회가 획기적인 인공지능 법안을 찬성 499표, 반대 28표, 기권 93표로 채택했다. 이날 EU의 정치적 합의를 도출, 최종 유럽연합 집행위원회(European Commission. EC)를 통과하면 EU '인공지능법(AI Act)'은 오는 2026년부터 시행된다.

이를 위한 유럽연합European Union, EU) 27개국 국가들과 유럽의회 의원들 간의 합의는 전날(7일) 거의 24시간에 걸친 토론에 이어, 우여곡절 속에 이날 거의 15시간에 걸친 협상 끝에 이루어진 것이다. 

9일(현지시간), 정치적 합의에 대해 우르술라 폰데어라이엔(Ursula von der Leyen) 유럽연합 집행위원장은 성명을 통해 “인공지능은 이미 우리 일상생활을 변화시키고 있으며 이것은 시작에 불과하고, 현명하고 광범위하게 사용되는 AI는 우리 경제와 사회에 막대한 이익을 약속합니다"라며, "그러므로 저는 오늘 유럽의회와 인공지능법위원회의 정치적 합의를 매우 환영합니다"라고 밝혔다.

유럽연합 집행위원장 우르술라 폰 데어 라이엔(사진:EC)
유럽연합 집행위원장 우르줄라 폰데어라이엔(사진:EC)

이어 그녀는 "EU의 AI법은 전 세계적으로 인공지능에 관한 최초의 법적 틀로 역사적인 순간입니다. 유럽의 가치를 새로운 시대로 전환할 것입니다"라며, "AI법은 식별 가능한 위험에 대한 규제에 집중함으로써 유럽에서 책임있는 AI혁신을 촉진할 것입니다"라고 강조했다.

아울러 "사람과 기업의 안전과 기본권을 보장함으로써 EU에서 신뢰할 수 있는 AI의 개발, 배포 및 채택을 지원할 것입니다"라며, "우리 AI법은 인간 중심 AI에 대한 글로벌 규칙과 원칙 개발에 상당한 기여를 할 것입니다”라고 덧붙였다(아래 성명서 전문).

EU의 이 인공지능법은 모든 AI는 최소 위험부터 허용할 수 없는 위험까지 단계로 분류된다. 예측적 치안(프로파일링, 위치 또는 과거 범죄 행위 기반) 도구, 얼굴 인식 데이터베이스 구축을 위해 인터넷이나 CCTV 영상에서 얼굴 이미지를 무한정 스크랩하는 행위(인권 및 사생활 침해)와 같은 기술은 금지되며, 어린이, 기타 취약 계층 및 채용 관행에 초점을 맞춘 AI는 더 엄격한 규제를 받게 된다.

단, 특정 범죄 피해자의 경우, 테러 공격과 같은 현재적이거나 예측 가능한 위협을 예방하고 가장 심각한 범죄로 의심되는 사람을 식별하는 경우에만 공공 장소에서 CCTV 등을 이용한 실시간 생체 인식 AI를 ​​사용할 수 있다.

또한 AI로 사람을 판단하고 개인의 사회적 행위 등을 평가 또는 점수화 하는 소셜 스코어링(Social Scoring), 민감한 특성(성별, 인종, 민족, 시민권 상태, 종교, 정치적 성향)을 사용하는 생체인식분류(Biometric Categorisation) 및 감정인식(Emotion Recognition)을 위한 AI 시스템도 전면 금지된다.

특히, 오픈AI 챗GPT, 구글 바드·재미나이(Gemini), 메타 라마(Llama)생성 AI(Generative AI) 및 대형언어모델(LLM) 등과 범용 AI 시스템(General Purpose AI systems, GPAI) 등과 같은 모델이 시장에 출시되기 전에 투명성 의무를 준수하도록 요구하고 있다. 여기에는 기술 문서 작성, EU 저작권법 준수, 인간이 구현한 것이 아님을 명시하는 것과 학습에 사용된 콘텐츠에 대한 자세한 데이터(자료)를 요약해 모두 공개하는 내용이 포함됐다.

아울러, 시스템적 위험이 있는 영향력이 큰 기반 모델은 모델 평가를 수행하고, 시스템적 위험을 평가 및 완화하고, 적대적 테스트를 수행하고, 심각한 오류 및 사고에 대해 유럽 위원회에 즉시 보고하고, 사이버 보안을 보장하고, 에너지 효율성에 대해 보고해야 한다.

이 AI법은 더 엄격한 개인정보 보호 기준, 더 엄격한 투명성 법규, 협조하지 않을 경우 징벌적 벌금이 부과된다. 법 집행의 책임은 유럽연합 회원국에 있으며, 위반 기업은 750만 유로(약 107억원) 또는 매출액의 1.5%에서 최대 3,500만 유로(약 497억원) 또는 전 세계 매출액의 7%까지 다양하다. 이를 구글이나 마이크로소프트 등과 같은 거대 기술 기업에 적용할 경우, 수십억 달러(수 조원)에 이른다.

이처럼 인공지능 규제를 위한 EU의 기념비적인 노력에도 불구하고 EU는 글로벌 AI 리더십에서 여전히 뒷전으로 밀려나 있다.

대신, 미국과 중국이 주도권을 잡기 위해 경쟁하고 있다. 지난해 10월, 바이든 행정부는 AI 시스템이 공개되기 전에 개인 정보 보호 표준과 테스트에 중점을 둔 'AI 권리장전 청사진'을 발표(보기)했으며, 지난 4월 중국(CAC, Cyberspace Administration of China)도 인공지능 챗봇 업체가 국가 검열 법을 준수하도록 하는 일련의 규칙 초안(생성 인공지능 서비스 관리 방안-보기)을 발표하며 그 뒤를 따랐다.

국민투표로 2020년 유럽연합을 탈퇴(브렉시트·BREXIT)한 영국은 지난달 1일 영국 블레츨리 파크(Bletchley Park)에서 열린 '제1차 AI 안전성 정상회의(AI Safety Summit)'에서 인공지능의 잠재적인 위험에 대한 공동 대응을 촉구하는 '블레츨리 선언(Bletchley declaration)'을 발표했다.

인공지능의 안전한 활용을 위한 "인간 중심적이고, 신뢰할 수 있으며, 책임감 있는 AI를 보장하기 위해 협력할 것"에 합의한 이 선언은 한국을 비롯한 영국, 미국, 캐나다, 프랑스, 일본, 호주, 싱가포르 등 28개국과 유럽연합이 서명했다. 단, 중국도 이 선언에 서명했지만 AI 제품의 안전성 검사 부문은 합의하지 않았다.

 

 

저작권자 © 인공지능신문 무단전재 및 재배포 금지