인공지능을 이용한 무기, 반자율화 시스템이 활성화된 드론 같은 군사적으로 무기화하는 시스템을 걱정할 때라고 지적

'인공지능 길들이기' 세미나 단체사진 (사진: 최광민기자)
'인공지능 길들이기' 세미나 단체사진 (사진: 최광민기자)

인공지능이라고 생각하면 대부분의 사람들은 터미네이터를 떠올린다. 하지만 터미네이터처럼 인공지능 로봇이 대중 앞에 상용화가 되려면 적어도 50~100년 이상이 지나야 가능해질 것으로 대다수의 과학자들은 말한다.

KAIST(총장 신성철)는 오늘(21일) 서울 웨스틴조선 호텔에서 '인공지능 길들이기: 공학, 윤리, 정책'이란 주제로 인공지능 국제세미나를 개최했다. 세미나에는 국외 인공지능 전문가들이 참석하여 경험과 윤리, 정책, 인공지능에 대중들이 어떻게 접근하고 있고, 어떤 생각을 갖고 있는지에 대해 심층적인 정보를 공유했다.

먼저 호주 뉴사우스웨일즈 대학의 인공지능 사이엔티아 교수를 맡고 있는 '토비 왈시(Toby Walsh)'박사는 ‘자율적 살상 무기 : 인공지능 연구자는 무엇을 해야 하는가?’를 주제로 사람들은 인공지능 로봇들이 인류를 장악하고 멸망에 이른다고 생각하는데 이런 터미네이터 인공지능 로봇을 걱정할 때가 아니라고 생각하며, 현재 인공지능을 이용한 무기, 반자율화 시스템이 활성화된 드론 같은 군사적으로 무기화하는 시스템을 걱정할 때라고 지적했다.

인간은 악의적인 명령을 받을 때에 거부할 능력을 갖고 있지만 인공지능 무기는 명령을 한번 받게 되면 무조건 수행하기에 인공지능 무기가 자동화되어 악의적으로 사용된다면 테러의 위협, 핵 전쟁까지 초래할 수 있는 문제가 발생할 수 있다.

최근 구글이나 카이스트가 군사적으로 인공지능을 개발한다고 해서 국제적으로 큰 이슈가 되기도 했는데, 토비 왈시 박사는 이러한 문제로 ''발표한 개발 전략의 해명이 필요할 것이다.'' 또한 ''어떤 기술을 개발하려고 하는지 밝혀야 논란의 문제점을 해결할 수 있을 것이다.''라고 담당자들과 연락하기도 했다.

이에 카이스트는 군사적 살상무기를 개발하는 것이 아닌 인간의 통제가 가능한 부분까지만 개발 할 것이라고 분명한 의사를 표명했으며, 구글은 1. 사회적으로 유익, 2. AI와 관련 불공정한 편견을 만들거나 강요하지 않는다. 3. AI는 안전을 위해 제작되고 테스트 돼야한다. 4. AI 기술은 적절한 인간의 지시와 통제를 받으며, 또한 그 책임은 사람들에게 있다. 5. 프라이버시 디자인 원칙으로 프라이버시 보호 장치가 있는 아키텍처를 장려하며, 데이터 사용에 대한 적절한 투명성과 제어를 제공 할 것이다. 6. 높은 수준의 과학적 우수성을 지킨다. 7. 구글은 잠재적으로 유해하거나 악의적인 애플리케이션을 제한하기 위해 노력할 것이며, AI 기술을 개발하고 배포할 때 원칙에 부합하는 용도로 사용할 수 있도록 한다.라는 '우리의 원칙'을 발표했으며, 군사적으로 보급 및 편의 수단에 대해서 개발할 것이고 인간에게 해가 되는 개발은 하지 않는다고 전한바 있다.

또한 일본 도쿄대 조교수이자 이화학연구소 연구원인 '에마 아리사(Arisa Ema)'박사는  ‘일본의 인공지능 윤리 및 정책 : 일본 인공지능 학회가 주는 교훈’이라는 주제로 "일본 인공지능 학회 'JSAI'가 인공지능이 대중들에게 친숙하게 접근할 수 있도록 노력을 하고 있지만, 노력 가운데 좋지 않은 결과가 나오기도 하였다."며, "저널을 통해 대중들이 친숙하도록 '청소하는 여자 로봇'을 표지로 만들었는데 성차별 같은 다른 관점에서 바라보는 문제점이 나타났다."고 전했다.

게다가 국제적으로 BBC에서 '일본 노예 소녀가 청소를 하고 있다'는 좋지 않은 언론이 보도가 발표된 적도 있는데 이런 문제가 나타나 표지가 나온 이후에 JSAI 내에 윤리 위원회를 설립하여 인공지능 전문가가 아닌 철학 및 다른 분야의 전문가들과도 논의한다고 전했다.

연사 토론 (사진: 최광민기자)
연사 토론 (사진: 최광민기자)

한편 영국 노팅햄 대학의 호라이즌 디지털 경제 연구소 선임연구원인 '안스가 쿠너(Ansgar Koene)'박사는 얼굴을 인식하는 인공지능 기술 프로세서 중 동양인이나 흑인을 잘 감지하지 못하는 문제가 있다고 하는데, 이런 문제는 누군가가 그렇게 만들고자 한 것이 아닌 쉽게 얻을 수 있는 정보 기반이 백인이었기에 인식 확률이 높은 것뿐인데 다른 관점의 사람들은 차별이라고 본다고 경험담을 말했다.

또한, 미인대회에서는 백인 피부를 선호하는 알고리즘 형태가 나오기도 하고 치안, 형사 관련 범죄기록을 바탕으로 경찰이 어디에 집중을 해야 할지를 알려주는 알고리즘이 있는데 문제는 경찰을 어느 지역에는 많이 배치를 하면 배치가 되지 않는 곳은 범죄가 많이 일어날 경우가 생길 수 있다면서 이러한 문제점을 방지하기 위해서는 충분한 노력을 기울여 알고리즘이 편향성을 띠게 하지 않도록 주의해야 한다고 전했다.  

마지막으로 카이스트(KAIST) 전기 및 전자공학부의 명예교수이자 카이스트 인공지능연구소 소장을 맡고 있는 이수영 박사는 '인공지능은 인간에 왜 필요한가?', '어떤 인공지능 윤리를 가르칠 것인가'에 대해 발표했다.

발표를 통해 이 박사는 인공지능이 활성화된다면 인간과 동반자로써 역할을 해야 하며, 인공지능과 인간은 서로 신뢰가 있어야 하는데 좋은 일을 할 것인지 좋지 않은 일을 할 것인지 거기서 윤리가 나오며 인공지능이 인간의 윤리를 그대로 따라야 신뢰를 쌓을 수 있을 거라고 보기 때문에 서로 간의 좋은 의도로 일을 하는 동반자가 되어야 한다고 전했다(대부분의 사람들은 인공지능 로봇들이 노예 또는 하수인 처럼 생각하는 경향이 많다).

아울러 인공지능은 사람보다는 안전하지는 않지만 사람보다는 위험하진 않다. 어린아이들이 어른으로부터 윤리를 배우듯이 인공지능도 똑같은 방식으로 윤리를 배워야 하고, 사람은 현재의 감정을 통해 질문에 대한 답변이 달라질 수 있는데 인공지능은 감정이 없기 때문에 때로는 사람의 의도대로 행동하지 않을 수 있기에 인공지능에 감정이 필요한 이유라고 본다고 전했다.

특히 이 박사는 "사람들은 '기계가 학습을 너무하면 사람을 넘어설 것이다' 그래서 학습을 시키면 안 된다는 사람들이 있는데, 만약 기계가 학습이 없다면 인간에게는 결코 필요하지 않게 될 것이 때문에 학습이 있기에 인간에게 필요한 조력자이다."라고 전했다.

한편 이번 세미나에는 인공지능 분야와 다른 연세대 사회과학대학 언론홍보영상학부 이상엽 박사, 카이스트 과학기술정책대학원의 대학원장이자 4차산업혁명지능정보센터의 부소장인 김소영 박사가 참석하여 다른 분야의 관점에서 바라본 인공지능에 대해서, 그리고 각 연사의 발표 이후에는 국내 인공지능 연구자 및 정책 연구자의 논평과 종합토론을 통해 인공지능의 책임 있는 개발을 위한 국내 학계의 실천 가능 정책과 국제 윤리 담론에 기여할 수 있는 방안을 심도 있게 논의했다.

 

 

 

저작권자 © 인공지능신문 무단전재 및 재배포 금지