AI가 많은 인류의 과제를 하나씩 해결하고 인류를 지원할 것에는 의심에 여지가 없지만...
지금부터라도 정부, 기업, 학계, 단체 등이 잘 조율하고 협력하여 더 안정적이고 신뢰할 수 있는 AI를 구축하고 배포하는 것이 필수적으로 따라야 될 것으로 보인다.

인공지능은 테러리즘이나 기후 변화보다 인류에게 더 큰 위험을 초래할 수 있다.(이미지:영국과학협회, 편집:본지)
인공지능은 테러리즘이나 기후 변화보다 인류에게 더 큰 위험을 초래할 수 있다.(이미지:영국과학협회, 편집:본지)

인공지능(AI) 기술 개발은 의료, 교육, 금융, 제조, 에너지, 기후 변화 대책, 곡물 생산 등 모든 산업과 사회에 있어서 큰 발전을 이루고 인간의 창의력과 결합하여 개인의 가능성은 극대화되고 훌륭한 성과를 이루고 있다.

아주 가까운 미래에는 완전 자동 운전 차량이 고속도로를 주행하고, 머신러닝 알고리즘이 전염병과 싸우고 온라인에서 구입한 제품을 드론이 납품하고 있을지도 모른다. 자연어 인식, 이미지 인식 및 음성 인식, 머신러닝, 신경 네트워크, 강화학습 등 AI기술의 급속한 발전을 보면 알 수 있듯이 컴퓨터의 인지컴퓨팅 능력은 하루가 다르게 진화하고 있다.

특히 AI가 가장 눈에 띄는 것은 의료 진단 분야이지만 확실한 것은 AI는 굉장한 이익을 가져다준다는 것이다. 그럼에도 불구하고 스티븐 호킹 박사, 빌 게이츠, 오바마 전 미국 대통령 등 많은 과학자나 전문가들은 AI로 인한 인류에 미칠 역기능에 경고와 경종을 울리기도 한다. 그 것은 사회적, 경제적인 관점에서 뿐만 아니라 AI가 인류의 미래에 미칠 영향을 가름하기 어렵기 때문이다.

영국과학협회(the British Science Association) 신임회장이자 영국 써리대학교(University of Surrey) 물리학 교수인 짐 알-칼릴리(Jim Al-Khalili)(사진:BBC방송 캡처)
영국과학협회(the British Science Association) 신임회장이자 영국 써리대학교(University of Surrey) 물리학 교수인 짐 알-칼릴리(Jim Al-Khalili)(사진:BBC방송 캡처)

이런 가운데 "인공지능의 부상은 테러리즘이나 기후 변화보다 우리 인류의 미래에 더 큰 위험을 초래합니다" 라며, 영국과학협회(the British Science Association) 신임회장이자 영국 써리대학교(University of Surrey) 물리학 교수인 짐 알-칼릴리(Jim Al-Khalili) 회장이 경고했다. 그는 9월 11일에서 14일까지 영국 헐시티 전역에서 열리는 영국과학축제(British Science Festival 2018) 전인 6일(현지시각) 런던에서 열린 브리핑 속에서 '인공지능의 꿈과 위험(the dream and dangers of AI)'이라는 주제를 들어 말했다.

축제는 영국과학협회 주최로 유럽에서 가장 오래된 과학 축제 중 하나로 영국 북동부 요크York)에서 1831년 처음 개최돼 매년 도시를 순회하며 열린다. 축제는 100여 회의와 토론, 공연 및 활동으로 구성된 다양한 프로그램을 특징으로 하며, 올해는 1927년에 설립된 영국에서 14번째로 오래된 헐 대학교(University of Hull)와 공동 주최로 개최된다. 

그는 "몇 년 전까지 만해도 우리는 우리의 미래에 대해 가장 중요한 과제가 무엇인지 물었을 때 기후 변화 또는 테러, 항생제 저항, 전염병이나 세계 빈곤 등의 위협과 같은 인류가 직면한 문제를 논했다"라며, "하지만 오늘, 우리가 논의해야 될 가장 중요한 문제는 인공지능(AI)의 미래에 관한 것입니다"라고 말했으며, AI는 더 큰 투명성과 정부, 학계 및 업계의 조율과 공동 행동이 없으면 급속도로 발전하는 AI기술은 강력한 특정 개인이나  몇몇 회사의 손에 "제어되지 않고 규제되지 않은" 상태의 AI가 탄생될 수 있다고 경고했다.

사진:본지DB
사진:본지DB

또한 그는 영국이 2030년까지 세계 경제에 15 조 달러(약 1경 7천조원)를 기여할 것으로 예측되는 가운데 이 AI기술이 그 최전선에 있다고 지적했으며, "우리가 개의치 않은 유전자변형(GM, genetically modified)과 동일한 방식으로 새로운 AI가 발생할 위험이 있다"고 덧붙였다.

이처럼 인공지능은 사회의 가장 어려운 과제를 극복할 수 있는 것은 분명하지만, 그 가능성을 극대화하기 위해서는 대량의 데이터를 수집하고 공유하는 것이 필수적이지만 여기에서 유니버설 액세스, 개인 정보 보호, 투명성 등에 관한 윤리적 과제는 물론이며, 무엇보다도 인간이 감당할 수 없는 AI의 탄생을 우려하고 있다.

또한 어떤 의미에서 AI는 우리의 기술과 상호 작용하는 방식을 크게 변화시키고 있으며, 우리는 기술의 신뢰가 무엇인지 재고 할 필요가 있는 것이다. 사회적 수준에서 말하면, AI에 의한 의사 결정 과정의 강화가 지속되는 가운데, 어떻게 하면 AI가 모든 사람을 공평하게 취급하도록 할 수 있을까? 보급이 진행뿐만 아니라 점점 더 지적이고 강력해지는 AI 시스템의 책임을 사람이나 조직은 어떻게 하면 좋은 것일까? 라는 과제는 AI가 진화될수록 그 우려는 더욱 크게 우리에게 다가온다.

지난 6월 구글의 선다 피차이(Sundar Pichai) CEO는 자신의 블로그를 통해 인공지능(AI) 무기 개발과 사용을 금지하는 등 7개 항목의 '우리의 원칙'을 발표하기도 했다.

구글의 선다 피차이(Sundar Pichai) CEO(사진:본지DB)
구글의 선다 피차이(Sundar Pichai) CEO(사진:본지DB)

그 내용을 요약해보면 ▶AI는 사회적으로 유익, ▶AI와 관련 불공정한 편견을 만들거나 강요하지 않는다. ▶AI는 안전을 위해 제작되고 테스트 돼야한다. ▶AI 기술은 적절한 인간의 지시와 통제를 받으며, 또한 그 책임은 사람들에게 있다. ▶프라이버시 디자인 원칙으로 프라이버시 보호 장치가 있는 아키텍처를 장려하며, 데이터 사용에 대한 적절한 투명성과 제어를 제공 할 것이다. ▶높은 수준의 과학적 우수성을 지킨다. ▶구글은 잠재적으로 유해하거나 악의적인 애플리케이션을 제한하기 위해 노력할 것이며, AI 기술을 개발하고 배포할 때 원칙에 부합하는 용도로 사용할 수 있도록 한다.

AI 기술을 개발하고 배포할 때 원칙은 ▶독창성: 고유한 기술을 일반적으로 사용할 수 있도록 만들고 있는지 여부, ▶규모: 이 기술의 사용이 중대한 영향을 미치는지 여부, ▶구글의 참여 특성: 범용 툴 제공, 고객을 위한 툴 통합 또는 맞춤형 솔루션 개발 등이다.

가장 최근인 9월 6일 세계적인 미래 학자이자 AI 혁신의 대표주자인 제리 캐플런(Jerry Kaplan) 미국 스텐포드대(Stanford University) 교수는 KAIST에서 강연을 통해 AI를 위협하는 가장 큰 문제는 무엇인가? 에 그는 단연코 윤리적 문제라 말할 수 있다며, 좀 더 인간에게 유익한 가치를 제공할 수 있는 AI를 위해서는 ▶안전 운영 지침을 마련, ▶작동을 안할 시에는 항시, 안전 모드로 셋업, ▶인간의 행동을 어떻게 프로그램화 할 것인지 연구, ▶AI로봇 안전 기준에 대한 인증제도 도입, ▶특정 AI기계사용 제한, ▶기초 컴퓨터 사용시 윤리 기준 마련, ▶위법 행동에 대한 관련 규정 등 7가지 원칙이 마련되고, 지켜져야 한다고 말했다.

제리 캐플런 교수의 KAIST 강연 모습(사진:KAIST)
제리 캐플런 교수의 6일 KAIST 강연 모습(사진:KAIST)

아무튼 AI의 가능성을 최대한 발휘하기 위해서는 신뢰라는 탄탄한 기반이 필요하다. AI 솔루션이 최대한의 보안, 안정성을 제공할 수 있어야 하며, AI의 혜택을 최대한 누리려면 우리는 이러한 질문에 대한 해답을 찾기 위해 협력하고 사람들이 신뢰할 수 있는 시스템을 구축해야 된다. 결국 AI가 신뢰할 수 있기 위해서는 투명성, 안전성, 다양성뿐만 아니라, 최고 수준의 보안성도 유지해야 한다.

그리고 AI에 의한 솔루션의 개발 및 배포의 핵심에 있어서 기준을 정리하자면 우선 개인 정보 및 보안으로 다른 클라우드 기술과 마찬가지로 AI 시스템은 데이터의 수집·사용·저장을 규제하는 개인 정보 보호법을 준수하고 개인 정보를 개인 정보 보호 기준에 부합 사용되어 악용 및 도난으로부터 보호 되도록 보장돼야 된다.

또한 투명성으로 AI 사람들의 삶에 미치는 영향이 증가함에 따라 어떻게하고 AI가 판단했는지 사람들이 이해할 수 있도록 AI 시스템의 기능에 대한 배경 정보를 제공하고 잠재적인 편견, 오류, 예기치 못한 결과를 쉽게 파악할 수 있도록 해야 하며, 공정성 또한 중요하다. AI 시스템은 예를 들어, 질병의 치료 및 고용에 관한 결정을 내릴 때 비슷한 증상 또는 기준에 따르는 사람이면 누구에게나 같은 판단을 해야 한다. 아울러 공정성을 보장하기 위해 바이어스가 AI 시스템에 어떻게 영향을 미치는지 대해 파악해야 된다.

아울러 다양성으로 제품과 환경의 잠재적인 장벽을 예상 한 다양성 있는 설계 규범에 의해 광범위한 인간의 요구와 경험에 대응해야할 것이며, 신뢰성과 책임성이 따라야 된다. 항상 AI 시스템은 명확한 조건 하에서 작동해야 되며, 예기치 못한 상황에서도 안전하게 응답 예상과 다른 형태로 진화해 나가지 않도록 설계돼야 된다. 그리고 AI 시스템을 전개하여 언제 배포하거나 의사 결정에 있어서도 언제나 인간이 중심적인 역할과 책임을 다해야한다.

결론적으로 발생할지도 모르는 AI 문제에 대해 유엔은 정기적으로 회의를 열고 있다. 이처럼 매우 우려되는 문제로 인해 1000 명이 넘는 AI 과학자나 전문가들은 AI의 무차별적인 개발과 로봇 무기 개발 중단을 호소하고 있다. 하지만 중단은 없을 것으로 보인다. 단지, 최선의 결과는 개발의 속도를 조절할 뿐, 그동안 우리가 할 수 있는 것은 규제 및 제한 사항 부여가 최선 일 것이다.

이처럼 부정적인 요소도 있지만 앞으로 AI가 많은 인류의 과제를 하나씩 해결하고 인류를 지원할 것에는 의심에 여지가 없지만 지금부터라도 정부, 기업, 학계, 단체 등이 잘 조율하고 협력하여 더 안정적이고 신뢰할 수 있는 AI를 구축하고 배포하는 것이 필수적으로 따라야 될 것으로 보인다.

 

저작권자 © 인공지능신문 무단전재 및 재배포 금지