거대 인공지능 종단 간 작업 가속화 위한 새로운 프로세서 ‘LPU’... DAC 2023 'IP 부문 공학 트랙'서 최우수 발표상 수상 쾌거...

김주영 교수
김주영 교수

오픈AI의 챗GPT, 구글 바드(Bard), 메타 라마(LLaMa) 등 대형언어모델(이하, LLM)을 기반으로 하고 있는 대화형 생성 AI는 전 세계적으로 하루가 멀게 이슈를 뿌리며, 이 기술이 가져올 변화에 모두 주목하고 있다.

그러나 이를 운영하기 위해서는 수많은 고성능 GPU가 필요해, 천문학적인 컴퓨팅 비용이 든다는 문제점이 있다.

KAIST(총장 이광형)는 전기및전자공학부 김주영 교수 연구팀이 챗GPT에 핵심으로 사용되는 LLM의 추론 연산을 효율적으로 가속하는 AI 반도체를 개발했다.

연구팀이 개발한 AI 반도체 ‘LPU(Latency Processing Unit)’는 LLM의 추론 연산을 효율적으로 가속한다. 메모리 대역폭 사용을 극대화하고 추론에 필요한 모든 연산을 고속으로 수행 가능한 연산 엔진을 갖춘 AI 반도체이며, 자체 네트워킹을 내장하여 다수개 가속기로 확장이 용이하다.

연구팀이 개발한 LPU의 구조 개요
연구팀이 개발한 LPU의 구조 개요

이 LPU 기반의 가속 어플라이언스 서버는 업계 최고의 고성능 GPU인 엔비디아 A100 기반 슈퍼컴퓨터보다 성능은 최대 50%, 가격 대비 성능은 2.4배가량 높였다고 한다. 이는 최근 급격하게 생성형 AI 서비스 수요가 증가하고 있는 데이터센터의에서 고성능 GPU를 대체할 수 있을 것으로 기대된다.

LPU를 통한 거대 언어 모델의 연산 방식
LPU를 통한 거대 언어 모델의 연산 방식

이번 연구는 김주영 교수의 KAIST 교수창업기업인 '하이퍼엑셀'에서 수행했으며, 지난달 12일 샌프란시스코에서 개최된 국제 반도체 설계 자동화 학회(Design Automation Conference. 이하, DAC)'에서 '하이퍼스케일 AI 모델 가속화를 위한 LPU(Latency Processing Unit (LPU) for Acceleration of Hyperscale AI Models)' 란 제목으로 'IP 부문 공학 트랙에서 최우수 발표상(Engineering Track Best Presentation Award for IP)'을 수상하는 쾌거를 이뤘다

DAC 2023에서 문승재 박사과정의 수상 모습
DAC 2023에서 문승재 박사과정의 수상 모습

DAC은 국제 반도체 설계 분야의 대표 학회로 특히 전자 설계 자동화(Electronic Design Automation, EDA)와 반도체 설계자산(Semiconductor Intellectual Property, IP) 기술 관련하여 세계적인 반도체 설계 기술을 선보이는 학회로 DAC 2023에는 인텔, 엔비디아, AMD, 구글, 마이크로소프트, 삼성, TSMC, 시놉시스 등 세계적인 반도체 설계 기업과 하버드대학교, MIT, 스탠퍼드대학교, 조지아 공과대학 등 세계 유수 대학 등이 참가했다.

연구팀이 개발한 LPU 칩과 가속 어플라이언스
연구팀이 개발한 LPU 칩과 가속 어플라이언스

이번 김 교수팀이 LLM을 위한 AI 반도체 기술로 유일하게 수상한 것은 매우 의미가 크다. 이번 수상으로 LLM의 추론에 필요한 막대한 비용을 획기적으로 절감할 수 있는 AI 반도체 솔루션으로 세계 무대에서 인정받은 것이다.

KAIST 김주영 교수는 “미래 거대 인공지능 연산을 위한 새로운 프로세서 ‘LPU’로 글로벌 시장을 개척하고, 빅테크 기업들의 기술력보다 우위를 선점하겠다”라며 큰 포부를 밝혔다.

저작권자 © 인공지능신문 무단전재 및 재배포 금지