삼정KPMG 최종원 상무
삼정KPMG 최종원 상무

초거대 인공지능(Hyperscale AI)은 대형언어모델(LLM)로 방대한 양의 데이터와 작업을 처리하는 AI 시스템이다. 초거대 AI 또는 생성 AI(Gen AI)의 등장에 따라 AI는 데이터 분석 및 처리의 수동적 역할을 넘어 기존 데이터 분석에 기반한 새로운 콘텐츠 생성 능력까지 갖추게 됐다.

AI는 19세기에 최초로 가능성이 언급된 후 머신러닝, 딥러닝 등 진화를 거치며 성능이 크게 발전해 왔고 IBM, 딥마인드(구글) 등 AI 기술력을 보유한 기업들이 사람과 대결할 수 있는 인공지능 프로그램을 개발하고 공개해 왔다. 2022년 11월에 공개한 Open AI의 생성형 AI인 챗GPT는 출시 2개월만에 사용자 1억명을 돌파하는 열풍을 일으켰다.

챗GPT 성공을 기점으로 최근 글로벌 선도기업들은 보다 적극적으로 텍스트, 이미지, 음성, 영상 등 다양한 분야에서 생성형 AI를 출시하며 초거대 AI 시장의 주도권을 잡기 위한 경쟁을 펼치고 있다. 구글은 2023년 3월 생성형 AI 챗봇 ‘바드(Bard)’를 공개하며 반격을 시작했으며 마이크로소프는 Open AI와의 파트너십을 기반으로 검색엔진 Bing에 AI 기반 챗봇을 적용하고 기존 MS 오피스에 AI엔진을 탑재한 마이크소프트365 코파일럿(MS365 Copilot)을 출시하는 등 적극적 행보를 펼치고 있다.

국내에서도 카카오 등 주요 테크 기업과 통신사가 자체 AI 파운데이션 모델을 구축하여 생성형 AI 애플리케이션을 적극 출시 중이며 특히, 지난달 24일 네이버는 “생성 AI 새로운 변화, 맞이할 준비 마쳤다!”며, 생성 인공지능 ‘하이퍼클로바X’와 이를 기반으로 한 대화형 AI 서비스 ‘클로바X’와 생성형 AI 검색 ‘큐(CUE):’를 공식 출시했다. 

이처럼 AI 기술의 발전 속도가 빨라지고 적용 대상 분야가 다양해 짐에 따라 기업 내 각 비즈니스 부문에도 많은 변화가 예상되는 가운데 AI 적용을 통해 업무 속도와 효율성이 높아질 뿐 아니라 전반적인 업무방식에 혁신적 변화를 가져올 것으로 기대되고 있다. 기존에는 제한적인 업무에서만 활용되던 AI가 다양한 업무분야에 확산될 수 있을 것이다.

예를 들어 인사 부문에서는 생성형 AI 기술 도입을 통해 채용 프로세스를 자동화하고 인적 자원의 역량 분석 및 개발을 고도화할 수 있을 것으로 예상되며, 법률·컴플라이언스 부문에서는 AI를 통한 법적 문서 작성, 규제 준수 등의 신속성 및 정확성을 제고하여 업무 효율성을 증진시킬 수 있을 것으로 기대되고 있다.

출처:삼정KPMG 경제연구원
출처:삼정KPMG 경제연구원

반면 초거대 AI가 조명 받으면서 다양한 효익에 대한 기대와 동시에 소수 대형 기업으로의 독과점 심화, AI 규범 체계에 대한 우려도 존재한다. 거대 자본과 방대한 데이터를 보유한 기업으로의 데이터 쏠림 현상이 발생하여 선도사와 그 외 기업 간 부익부 빈익빈이 심화될 수 있다.

또한 정보 유출 등 리스크에 대한 우려로 정보보안이 중요한 일부 기업들은 명확한 가이드라인 마련 전까지는 초거대 AI 서비스의 사용을 제한하는 정책을 시행하고 있다. 미국과 이탈리아를 시작으로 EU(유럽연합)를 비롯한 다수 국가는 ‘FATE(Fairness·Accountability·Transparency·Ethics)’라는 방향성을 토대로 초거대 AI 규제 기준을 강화하는 동시에 산업 진흥을 저해하지 않는 방향으로 제도적 틀 마련을 준비하고 있다.

경영진은 기업의 경쟁력 강화를 위하여 다양한 비즈니스 부문별 AI 도입 및 활용을 적극적으로 검토해야 함과 동시에 AI 도입 및 활용에 따른 리스크를 관리하는 체계 수립도 필수적으로 검토해야 할 것이다.

AI 도입에 따른 부작용을 예측하고 이를 선제적으로 관리하기 위해 발생 가능한 위험을 식별하고 사전 및 사후 대응 절차를 수립하고 생애 주기별 프로세스, 목표 성능 및 측정지표 관리가 필요하며 AI 활용과 소비자, 기업보호 관점의 균형적 역할 고려가 필요하다.

또한 편향된 데이터로 인해 부정확한 결과가 도출되거나 학습 데이터 기준의 부재로 인한 윤리적 문제가 발생하는 리스크에 대한 대응방안도 수립되어야 할 것이다.

이러한 다양한 리스크를 관리하기 위해 ‘AI 모델이 도출한 결과값을 신뢰할 수 있는가?’부터 ‘AI 관련 사고 발생 시, 대응 프로세스가 존재하는가?’, ‘AI 판단 결과를 어떻게 고객이나 규제 당국에 이해시킬 수 있는가?’에 이르기까지 AI 도입에 따른 주요 질문에 대한 관리 체계를 만드는 것이 필요하다.

이와 함께 기업의 고유한 상황을 고려하여 조직과 R&R(역할·책임), 프로세스 및 모형 검증 측면에서 AI를 통제하고 관리하는 원칙 수립이 요구된다.

이러한 AI 거버넌스 체계를 효과적으로 수립하고 운영함으로써 기업의 AI 서비스에 대한 고객, 직원, 규제당국 등의 신뢰를 확보하고 이를 기반으로 조직 내 AI 적용을 활성화하여 지속적인 혁신 기회를 창출할 수 있을 것이다.

또한 AI 관련 조직별 역할 및 책임을 명확화함으로써 관련 규제 등을 준수하고 잠재 리스크를 선제적으로 관리하는 역량을 확보하여 발생가능한 손실을 예방할 수 있다.

최종원 상무는 한국인공지능협회 전문위원 활동 중이다.

저작권자 © 인공지능신문 무단전재 및 재배포 금지