"우리가 걱정해야 할 것은 인공지능의 악의가 아니라 능력이다"

사진:MOD

인공지능은 기업이 사용할 경우 다양한 작업을 자동화하는 반면 소비자가 사용할 경우 일상을 더 쉽고 즐겁게 만들 수 있다.

그러나 인공지능은 소비자 및 비즈니스 중심 기술만이 전부가 아니다. 특정 국가는 이미 인공지능을 사용해 시민을 감시하고 있으며 군대도 AI가 제공하는 속도와 그 능력에 큰 관심을 가지고 있다.

지난 14일 영국 국방부(MOD, U.K.'s Ministry of Defence)가 인공지능을 사용해 군함이 결정을 내리고 수천 개의 지능과 데이터를 처리하는 방식을 혁신하는 'DASA(국방 및 보안 가속기, Defense and Security Accelerator)' 프로젝트를 밝히기도 했다. 이뿐만 아니라 일부 국가들은 국가 안보 및 전쟁과 관련된 결정을 내릴 때 AI를 사용할 것으로 보인다.

DASA 프로젝트는 오는 2040 년대까지 영국 해군, 영국 육군 및 영국 공군 장비 플랫폼이 설계, 협력, 운영 및 유인되는 방식을 변화시킬 수 있는 AI 및 머신러닝 기반 기술을 개발하는 것이다.

인공지능을 사용하여 군함이 결정을 내리고 수천 개의 지능과 데이터를 처리하는 방식을 혁신(사진:MOD)

이 프로젝트의 최초 기금으로 400만 파운드(약 61억 3천만원)가 지원되는 인텔리전트 선박(Intelligent Ship)은 AI 군함으로 해군의 맥락에서 이루어지지만 영국 정부는 모든 영국 방어 및 공격 능력에 사용될 기술의 기초를 형성하기 위해 모든 획기적인 발전을 계획하고 있다.

이날 영국 제임스 헤페이(James Heappey) 국방부장관은 "글로벌 위협이 진화하고 있는 놀라운 속도에는 아이디어와 기술을 개발하는 방식에 대한 새로운 접근 방식과 새로운 사고가 필요합니다. 이 기금은 AI와 자동화가 필수적인 일상 업무에서 우리 군대를 지원할 수 있는 방법에 대한 선구적인 프로젝트를 연구할 것입니다"라고 밝혔다.

특히 이 프로젝트는 2040 년 이후에는 군함, 항공기 및 육상 차량과 같은 방위 플랫폼을 위한 사람과 AI 그리고 AI와 AI 간 팀을 위한 독창적인 접근 방식에 중점을 둔다. 또 영국 군사 시스템에 통합 될 수 있는 방법과 잠재적 및 실제 위협에 대한 영국의 대응력을 높이기 위해 어떻게 활용될 수 있는지 살펴볼 것이라고 한다.

영국 국방부 산하 국방과학기술연구소(Dstl)의 기술 책임자 줄리아 태그(Julia Tagg)는 "이것은 영국 방위가 빠르게 변화하는 기술 환경에서 선(善)을 위해 효과적이고 유능한 힘으로 남아있게 할 것입니다"라고 말했다.

또 그녀는 "이미 수천 개의 데이터 소스, 인텔리전스 및 정보로 과부하에 직면하고 있습니다. 실제 기술과 경험으로 자동화, 자율성, 머신러닝 및 AI를 활용함으로써 미래의 함대 구성 방법을 혁신하여 영국을 안전하게 유지할 수 있을 것입니다"라고 덧붙였다.

영국 정부는 군사 AI에 대한 투자를 강화할 뿐만 아니라 지난해 국방 예산에 군사적 우위를 확대하기 위한 AI 및 머신러닝 등 첨단 기술 분야에 9 억 9,800 만 달러(약 1조 1656억원)를 책정했다. 참고로 스톡홀롬국제평화연구소의 '2018 년 세계 군사 지출 동향(Trends in world military expenditure 2018)에 따르면 지난 2018년 영국의 총 국방예산은 59조 7,250억 원이다.

본지 보도 '초인적 인공지능은 인류에게 재앙인가'에서 (사진:픽사베이,편집:본지)

미국은 AI를 포함한 최첨단 기술이 전쟁에 적용되는 것을 미리 예견하고 있다. 킬러 로봇은 이미 존재하며 오래 전부터 사용되었다.

미국이 지난해 10월 26일 새벽 ISIS 지도자로 전 세계 지하드를 관리하며 이슬람 국가의 이면 지도자로 알려진 아부 바크르 문 바그다디(Abu Bakr Moon-Baghdadi) 체포 사살 작전인 케일라 뮬러 작전operations-Kayla Mueller)을 수행했다. 이 역시 최초에는 로봇을 투입하려 했지만 k9군견 투입으로 변경하기도 했다.

주로 기술사용을 통해 적을 물리치기 위한 워싱턴의 제 3 오프셋 전략(3rd offset strategy)은 미국이 전쟁에서 인공지능을 사용하는 데 있어 가장 큰 역할을 하고 차세대 기술을 적용해 다른 국가와의 군사적 우위를 높이는 것을 목표로 한다.

미국은 AI군 요원, 로봇 및 자율 장비 및 무인 전, 즉 지능형 전투 시스템을 위한 일련의 연구 개발 프로그램을 수행했다. 무인 지상 차량, 형태 이동 로봇 켐봇(ChemBot) 및 4족 보행 로봇 ‘빅독(BigDog)은 이미 공상 과학 소설에 등장하는 로봇에 생명을 불어 넣었다.

지난해 2 월, 미국은 도널드 트럼프 미국 대통령은 2019 년 2 월 11 일에 미국 AI 이니셔티브(보기) 를 시작 하는 행정 명령(보기)을 발표했다. 국가의 이익, 안보 및 가치 보호. 그리고 집행 명령은 AI에서 미국의 리더십을 강조하고 있다.

행정 명령이 발표 된 다음날 미 국방부는 자체 인공지능 전략에 대해 발표(다운받기)했으며, 미 공군은 9 월에 2019 년 인공지능 전략을 공유하기 위해 이 전략의 부속서(다운받기)를 발표했다 .

지난해 10월 美국방부가 공개한 보고서 '미국의 제조 및 방위 산업 기반과 공급망 탄력성 평가 및 강화(Assessing and Strengthening the Manufacturing and Defense Industrial Base and Supply Chain Resiliency of the United States)'를 통해, 경쟁국들의 공격적인 산업 정책과 국내 노동력과 핵심 기술 등의 손실로 현재 산업기반은 전례없는 일련의 과제에 직면해 있으며, 이러한 도전으로 점차 제조 및 방위의 능력을 잃어가고 있다며, 미국의 위대한 힘 경쟁을 위해 다시 준비해야 된다고 밝혔다.(사진:본지DB)
2018년 10월 美국방부가 공개한 보고서 '미국의 제조 및 방위 산업 기반과 공급망 탄력성 평가 및 강화(Assessing and Strengthening the Manufacturing and Defense Industrial Base and Supply Chain Resiliency of the United States)'를 통해, 경쟁국들의 공격적인 산업 정책과 국내 노동력과 핵심 기술 등의 손실로 현재 산업기반은 전례없는 일련의 과제에 직면해 있으며, 이러한 도전으로 점차 제조 및 방위의 능력을 잃어가고 있다며, 미국의 위대한 힘 경쟁을 위해 다시 준비해야 된다고 밝혔다.(사진:본지DB)

미국은 강력한 전략과 기술의 발전에 따라 더 많은 로봇 및 기타 AI 군비가 앞으로 전장에서 선두 자리를 차지할 것으로 예상된다.

예를 들어, 무인 기갑 부대, 무인 함대, 특수 로봇 장치, 우주 로봇 장치 및 무인 결합 부대가 있을 수 있다. 이 과정에서 약한 인공지능이 결국 강력한 인공지능으로 발전하면 인공지능 기술의 경쟁이 국가 간 긴장을 더욱 심화시킬 것이다.

특히 오프셋 전략은 특정 기술 트렌드를 초월하는 방식으로 AI를 활용한다.

딥러닝은 사이버 방어, 전자전 공격 및 고밀도 미사일 공격의 지시 및 경고에 사용되며, 빅 데이터 분석에도 사용된다. 예를 들어, 딥러닝 시스템은 수니파 이슬람 극단주의 무장단체(ISIL)가 작성한 90,000 개의 페이스북 게시물을 분석하고 해당 데이터를 크런치하고 그 패턴을 찾아 사용 중인 항목을 끌어낼 수 있다.

사진은 2017년에 개발된 미 해병대의 군사 전투 로봇으로 기관총을 포함하여 다양한 무기도 장착할 수 있다.(사진:본지DB)
사진은 2017년에 개발된 미 해병대의 군사 전투 로봇으로 기관총을 포함하여 다양한 무기도 장착할 수 있다.(사진:본지DB)

또한 적응형 전자전을 위한 적응형 레이더 대책과 행동학습이라는 두 가지 프로그램을 진행하고 있다. 예를 들어, 장비가 알려지지 않은 레이더 신호를 감지한 미 전자전 공격기 EA-18G의 조종사들이 해당 정보를 분석을 위해 기지로 가져 오는 대신 임무 수행 중에 이를 관리하는 방법을 파악하도록 도울 수 있다.

특히 군사에서 휴먼-머신 협업(Human-Machine Collaboration)으로 인간이 더 나은 의사 결정을 내릴 수 있도록 함으로써 컴퓨터의 전술적인 시선으로 인간의 통찰력을 강화한다. 이 두 가지를 결합하면 인공지능과 인간이 신속하게 문제를 해결할 수 있는 사고력을 결합할 수 있다.

현재의 예로는 무인 수중 차량 시스템과 컴퓨터 및 레이더를 사용하여 적의 표적을 파괴하기 위해 무기를 추적하고 안내하는 해군 시스템인 이지스 무기 시스템이 있다.

휴먼-머신 협업은 인간이 더 나은 결정을 내리는 데 도움이 되지만, 인간-기계 전투 팀은 실제로 무인 시스템과 협력하여 작업을 수행하고 있다.

트리톤(Triton) UAV(사진:노스롭 그루먼)

이에 대한 두 가지 예를 들면 육군의 아파치 헬리콥터와 그레이 이글 무인 항공기, 그리고 해군의 P-8 항공기와 트리톤(Triton) UAV이다. 둘 다 함께 작동하도록 설계되었다. 특히 트리톤은 모든 센서에 대해 360도 커버리지를 제공하는 독특하고 강력한 미션 센서 제품군을 갖추어 미 해군에 전례 없는 해양 영역 인식 기능을 제공한다.

한편 블라디미르 푸틴 대통령은 지난 2017년에 야로슬라블(Yaroslavl) 학생들과의 대화에서 인공지능이 "러시아의 미래 일뿐 아니라 모든 인류의 미래"라고 말했다. 또 지난해 10월, 2030 년에 세계를 선도하는 야심찬 'AI국가전략'을 승인했다.

이 내용에는 AI 개발을 가속화하고 전략 수행이 AI 기술의 개발 및 구현에 있어 러시아가 세계 지도자 그룹에 진입하기 위한 전제 조건이며, 결과적으로 국가의 기술 독립성과 경쟁력을 강조한다.

그동안 러시아 군사 및 연구 기관은 AI 로봇이 전투 임무에 독립적으로 참여할 수 있게 하는 데 중점을 두고 연구 및 개발에 박차를 가하고 있는 가운데 2020 년에 군사용 AI 로봇 유닛을 위한 프레임 워크를 고안하고 과학 연구, 설계 및 테스트를 완료하고 오는 2025 년에 로봇 전투 유닛을 가동할 계획이다.

최근 몇 년 동안 러시아는 실제 전장, 특히 시리아에서 로봇 기계를 테스트 했다. 수류탄 발사기와 2015년에 개발된 칼라슈니코프(Kalashnikov) 소총으로 무장한 크롤러의 원격 제어 로봇 장치 Platform-M과 Uran-9 로봇 전차와 같은 무기를 테스트하는 등 군사 로봇 공학에서 크게 발전을 이루고 있다.

러시아의 Uran-9 로봇 전차(사진:Rostec)
러시아의 Uran-9 로봇 전차(사진:Rostec)

결론적으로 군사 AI의 글로벌 경쟁은 이미 뜨거워지고 있다. 또 AI는 군사 및 국방 경쟁의 새로운 초점으로 이동하고 있으며, AI 무기 경쟁이 진행 중이다.

AI는 미래를 선도할 전략적 기술로 세계 주요 강대국은 국가 경쟁력을 강화하고 국가 안보를 보호하기 위해 AI 개발을 주요 전략으로 삼고 있는 것이다. 사회와 산업의 미래가 되는 것 외에도, AI는 전쟁의 미래가 될 가능성이 높다.

그것은 점점 더 방어 관련 정보를 처리하고, 가장 큰 위협에 대한 그러한 데이터를 필터링하고, 프로그래밍된 알고리즘을 기반으로 방어 결정을 내리고, 심지어 직접 전투 로봇을 투입할 것이다. 이는 국가 군사 조직을 ‘강하고’ 더 ‘능력이 있다’는 뜻으로 들릴 것이다.

다수의 강대국이 AI를 정치적, 군사적 전략에 통합함에 따라 단기적으로는 어떤 이점이 있든 단기적으로 오래 지속될 수 있다. 전 세계 AI 전망을 높이고 있는 흐름의 추세에 비추어 볼 때 일시적인 이점은 지속적인 군사적 우위를 확보하지 못할 것이다.

이는 기술적인 문제가 아니다. AI는 많은 전술 및 전략 시스템의 성능을 향상시키고 있지만 어느 한쪽에 만 확실한 일방적인 이점을 제공하지는 않는다. 전쟁의 본질은 변하고 있으며 AI는 이러한 많은 변화를 불러일으키지만 억제의 기본 미적분학은 꾸준히 남아 있다. 

우리는 AI가 작전 환경, 적대적 능력, 공격 및 방어 무기의 속도와 정확성에 대한 지식을 향상시키기 위해 일련의 군사 임무에 통합되고 있음을 확실하게 알고 있다. 우리는 이러한 발전이 현대전에서 직면할 수 있는 방법과 그러한 변화가 정치적, 군사적 현실에 대한 이해를 바탕으로 지역 및 전략적 억지 안정성에 어떤 영향을 미칠 수 있는지에 대해 추측할 수 있다.

사진:본지
사진:본지

데이터가 왜곡되면 AI 시스템이 잘못된 대상을 잘못 식별하고 공격하는 등 의도하지 않은 조치를 취할 수 있다. 데이터는 카운터 AI 방법을 통해 의도적으로 오염되거나 여러 가지 이유로 자연적으로 발생할 수 있다. 이러한 조치는 에스컬레이션을 가속화하고 갈등 관리 노력을 방해할 수 있다.

AI는 왜곡된 데이터의 문제를 복잡하게 만들면서 전략적 안정성에 영향을 미치는 결정에는 실수를 한다. 의도하지 않은 동작으로 이어지는 데이터를 잘못 해석하면 에스컬레이션 및 보복을 포함하여 바람직하지 않은 상황이 발생할 수 있다.

AI가 전쟁의 속도와 치사율을 높이기 위해 완벽하게 작동하더라도 AI의 속도로 움직이는 것이 모든 경우에 최적이 아닐 수도 있다.

플랫폼과 예측할 수 없는 AI 상호 작용으로 인해 의도하지 않은 인공지능 계산이 생성 될 수 있으며, 블랙박스로 잘 이해되지 않으며 잘못된 목표를 달성하는 등 불안정한 결과를 낳을 수 있다.

2015 년에는 1,000 명 이상의 주요 과학자들이 소위 "킬러 로봇"에 대해 경고했으며, 2018년 76세의 일기로 타계한 세계 물리학계 거장 스티븐 호킹 박사(Stephen Hawking)는 생전인 2017년 3월 "인공지능(AI)의 부상은 인류에게 재앙"이라며, 세계 지도자들에게 더 늦기 전에 과학 기술을 인간의 관리 하에 두어야 한다고 호소했었다.

또 전세계 100여명 이상의 인공지능과 로봇 공학의 권위자들이 유엔(UN) 앞으로 역시 자율 무기의 금지를 요구하는 서한을 보냈다. 서한에는 살인 로봇과 대량 무기의 유사성을 언급하고 있다. 서명에는 테슬라의 일론 머스크(Elon Musk)와 알파벳 딥마인드의 무스타파 술레이먼(Mustafa Suleyman) 같은 인물의 이름도 들어있었다.

이처럼 AI가 악의적으로 변하는 것에 대한 두려움은 우리를 헷갈리게 하는 또 다른 요인이다.

그러나 이미 판도라의 상자는 열렸다 닫히기는 어려울 것이다. 단지, 최선의 결과는 개발의 속도를 조절할 뿐, 다른 혁신과 마찬가지로 AI 기술이 군사 및 안보에 영향을 미치기 시작했기 때문에 우리가 할 수 있는 것은 제대로 대응하고 통제할 수 있는 방법을 찾기 위해 최선을 다하는 것뿐이다.

그래도 악의적인 목적으로 인공지능을 이용하고자 한다면, 아마도 우리의 최선의 방어는 인공지능일 것이다. 우리가 진정으로 걱정해야 할 것은 인공지능의 악의가 아니라 능력이다.

저작권자 © 인공지능신문 무단전재 및 재배포 금지