초인적 인공지능은 인류에게 재앙인가(사진:픽사베이,편집:본지)
초인적 인공지능은 인류에게 재앙인가(사진:픽사베이,편집:본지)

지난 2018년 76세의 일기로 타계한 세계 물리학계 거장 스티븐 호킹 박사(Stephen Hawking)는 생전인 2017년 3월 "인공지능(AI)의 부상은 인류에게 재앙"이라며, 세계 지도자들에게 더 늦기 전에 과학 기술을 인간의 관리 하에 두어야 한다고 호소했었다.

또 전세계 100여명 이상의 인공지능과 로봇 공학의 권위자들이 유엔(UN) 앞으로 역시 자율 무기의 금지를 요구하는 서한을 보냈다. 서한에는 "살인 로봇"과 대량 무기의 유사성을 언급하고 있다. 서명에는 테슬라의 일론 머스크(Elon Musk)와 알파벳 딥마인드의 무스타파 술레이먼(Mustafa Suleyman) 같은 인물의 이름도 들어있었다.

하지만 많은 인공지능 연구자들은 이에 어이없어했다. 이와 유사한 제목의 기사들은 헤아릴 수 없을 정도로 많다. 일반적으로 이런 기사들은 부정적 묘사된 로봇 일러스트레이션 등을 통해 우리가 자의식이 생긴 악한 로봇들이 반란해 우리를 살생하는 것을 걱정해야 한다고 부추긴다.

이를 긍정적으로 생각한다면 이러한 기사는 인공지능 연구자가 걱정하지 않는 시나리오를 간결하게 요약하고 있다는 면에서 인상적이다. 이 시나리오는 의식에 대한 걱정, 악, 그리고 로봇, 이 세 가지 서로 다른 오해들을 결합하고 있는 것이다.

도로를 달릴 때 우리는 색깔, 소리 등 주관적인 경험을 한다. 하지만 자율 주행차도 이러한 주관적인 경험을 할까? 자율 주행차가 된다는 것이 아무 느낌을 불러올 수 있기는 한 걸까? 물론 이 의식에 대한 의문점들은 그 자체로도 흥미롭지만, 인공지능의 위험과는 관계가 없는 것 같다. 인간에게 영향을 미치는 것은 초인적 인공지능이 하는 행동일 뿐, 인공지능이 느끼는 주관적인 감정이 아니기 때문인 것이다.

기계가 악의적으로 변하는 것에 대한 두려움은 우리를 헷갈리게 하는 또 다른 요인이다. 우리가 진정으로 걱정해야할 것은 인공지능의 악의가 아니라 능력이다. 초인적 인공지능은 목표가 무엇이든 그것을 달성하는 데 매우 뛰어나기 때문에 그 목표가 우리의 목표와 반드시 같아야 한다. 경희대 이경전 교수는 “사람을 닮는 인공지능의 위험에서 인공지능은 합리적으로 인간 기능을 수행하는 인공지능”으로 정의돼야 한다고 말한다.

(사진:픽사베이,편집:본지)
(사진:픽사베이,편집:본지)

인공지능이 인간의 지능을 능가할 때까지 얼마나 걸릴까? 우리는 일반적으로 우리가 그 답을 확실히 알고 있다고 오해한다. 일반적인 착각 중에 하나는 우리가 금세기에 초인적 인공지능을 얻을 것이라는 확신하는 것이다.

사실, 역사는 기술에 대해 과장된 포장과 목표로 가득 차 있기도 한다. 지금쯤이라면 가동될 것이라고 확신한 핵융합 발전소와 우주를 날아다니는 자동차들은 어디 있을까? 인공지능 또한 오래 전부터 지속적으로 과장되어 왔다.

예를 들어, 인공지능의 창시자들, 존 맥카티(John McCarthy 1927, '인공지능'이라는 단어를 창조한 사람), 마빈 민스키(Marvin Minsky 1927), 나다니엘 로체스터(Nathaniel Rochester), 그리고 클로드 새넌(Claude Shannon)은 구식 컴퓨터로 지나치게 낙관적인 예측을 했었다.

이는 "기계들이 언어를 사용하고, 추상과 개념을 형성하고, 인간들만이 해결할 수 있는 문제들을 해결하며, 자기 자신을 향상할 수 있도록 만드는 방법에 대한 시도를 할 것" 이라는 공통적인 예측인 반면에 이와 반대되는 일반적 착각은 우리가 초인적 인공지능을 얻지 못할 것이라는 확신이다.

내노라하는 인공지능 연구원들은 우리가 초인적 인공지능의 개발이 얼마의 시간이 걸릴지에 관한 많은 예측과 견적을 냈지만, 역사적으로 많은 회의론적인 예측들의 정확도를 따져봤을 때, 금세기에 초인적 AI 개발확률이 제로(0)이라고 분명히 말할 수는 없을 것 같다.

예를 들어 위대한 핵물리학자 어니스트 러더포드(Ernest Rutherford)는 레오 실라드(Leo Szilard)가 핵 연쇄 반응을 개발하기 불과 24시간 전에 원자력은 헛소리라고 말했으며, 영국의 천문학자 리처드 울리(Richard Woolley) 경은 행성 간 여행이 부질없는 이야기라고 1956년도에 말했다고 한다.

또 인공지능의 오해의 가장 극단적인 형태는 초인적 인공지능이 물질적으로 불가능하다는 것이다. 그러나 물리학자들은 두뇌가 가설적 입자 쿼크(quark)와 전자로 구성되어 강력한 컴퓨터와 같이 작동하도록 설계되어 있다는 것을 알고 있으며, 그러므로 더욱 더 지능적인 쿼크 조직을 만드는 것을 방해하는 물리적 법칙은 없다는 것도 알고 있다.

학계와 산업계의 세계적인 인공지능 연구자가가 모여 경제학, 법학 및 윤리학 분야의 전문가 및 전문가들과 소통했던 지난 2015년 푸에르토리코 인공지능 안전 컨퍼런스에 참석한 인공지능 연구원들에게 "지금부터 몇 년 후에 인간 수준의 인공지능이 적어도 50%의 확률로 개발될 것인가?" 라고 설문조사를 진행했을 때, 설문조사의 결론은 "세계적인 전문가들의 각 의견이 다르므로 알 수 없다."였다고 한다.

예를 들어, AI연구원들을 대상으로 한 설문조사에서 “인간 수준의 인공지능은 언제인가?” 질문에서 평균 답변은 당시 2045년이었지만, 일부 연구원들은 수백 년 이상으로 예측했었다.

이미지:본지
이미지:본지

흔한 오해는 AI의 관해 우려를 표하는 사람들과 안전성 연구를 지지하는 모든 사람들은 인공지능에 대해 많이 알지 못하는 러다이트(기계파괴운동, Luddite Movement) 운동가들이라고 믿는 것이다. 또 이 주장을 AI 교과서(인공지능: 현대적 접근방식)의 공동저자 스튜어트 러셀스튜어트 러셀(Stuart Russell) UC버클리대 교수가 푸에르토리코에서 언급하여 청중의 큰 웃음을 샀다고 한다.

이것과 연관되어 몇몇의 사람들은 인공지능의 안전성 연구를 지지하는 것이 논란의 여지가 많다고 착각하기도 한다. 하지만 집에 불이 날 수도 있다는 가능성을 무시하지 못해 화재보험을 드는 것과 같이, 사실 인공지능 안전성 연구를 지원하기 위해서는 위험성이 높다는 확신보다는 단지 그 위험이 무시할 수는 없을 정도라는 사실에 대한 이해가 필요한 것이다.

우리는 인공지능의 안정성에 대한 논쟁이 실제보다 더 논란이 되는 것처럼 보일 수도 있지만, 우리의 두려움은 마케팅에 자주 이용당하고 문맥 밖의 암시적 인용문들이 사실적인 인용문들 보다 더 관심을 높이는 것은 사실이다.

그렇기 때문에 양측이 접촉한다면, 실제보다 더 의견이 대립한다고 생각할 수 있다. 예를 들어 기술발달에 관하여 회의론적 성향을 가지고 있는 사람이 미디어를 통해 빌 게이츠(William H. Gates)의 입장을 읽는다면, 게이츠가 초지능의 개발이 임박했다고 믿고 있다고 잘못 판단할 수도 있는 것이다.

마찬가지로 인공지능의 유익함을 주장하는 사람 중의 한명인 딥러닝 연구의 대가로 불리는 스탠포드대학의 앤드류 응(Andrew Ng) 교수가 “인공지능(AI) 기술이 널리 보급될수록 오히려 AI가 만들어내는 사회 문제를 해결할 수 있다”는 비전에 앤드류 응의 입장에 대해 전혀 모르는 상태로 앤드류 응이 인공지능 안전에 전혀 신경을 쓰지 않는다고 생각할 수 있다.

하지만 앤드류 응은 인공지능의 발달을 길게 보기 때문에 장기적인 문제들 보다 단기적인 것들에 중점을 두기 때문인 것이다.

결론적으로 사실상 초인적 인공지능에 대해 걱정하는 사람들은 적어도 10년 이상은 남아 있다고 추측한다. 인간 수준의 인공지능과 관련된 안전성의 문제들은 굉장히 까다롭고 어려우므로 해결하기까지 수십 년이 걸릴 수 있다.

하지만 초인적 인공지능은 금세기에 일어나지 않을 것이라고 100% 확신하지 않는 한, 인공지능이 '인류에게 재앙인가'를 논하기 보다는 우발적 상황에 대비하기 위해 지금부터 준비하고 안전에 대한 연구를 시작하는 것이 현명할 것이다.

저작권자 © 인공지능신문 무단전재 및 재배포 금지