세계 최초 HBM3e 프로세서로 혁신적인 메모리와 대역폭 제공...쉽게 확장 가능한 서버 디자인과 뛰어난 성능 발휘 위한 다중 GPU 연결 기능 탑재

GH200 그레이스 호퍼 플랫폼
GH200 그레이스 호퍼 플랫폼

엔비디아(NVIDIA)가 현지시간 지난 6일부터 10일까지 美 로스앤젤레스에서 열린 세계적인 컴퓨터 그래픽 컨퍼런스인 '시그래프 2023(SIGGRAPH)'에서 가속 컴퓨팅과 생성 AI를 위한 차세대 엔비디아 GH200 그레이스 호퍼 플랫폼(NVIDIA GH200 Grace Hopper™ platform)을 발표했다.

이 플랫폼은 세계 최초로 HBM3e 프로세서가 탑재된 새로운 그레이스 호퍼 슈퍼칩을 기반으로 한다.

GH200 그레이스 호퍼 플랫폼은 대규모 언어 모델, 추천 시스템, 벡터 데이터베이스를 비롯해 전 세계적으로 가장 복합한 생성형 AI 워크로드를 처리할 수 있도록 개발됐으며, 다양한 구성으로 제공될 예정이다.

현 세대 제품보다 최대 3.5배 많은 메모리 용량과 3배 높은 대역폭을 제공하는 듀얼 구성은 144개의 Arm 네오버스 코어, 8페타플롭의 AI 성능, 282GB의 최신 HBM3e 메모리 기술을 갖춘 단일 서버로 구성된다.

엔비디아 창립자 겸 CEO인 젠슨 황(Jensen Huang)은 “급증하는 생성형 AI의 수요를 충족하기 위해 데이터센터에는 전문적인 요구 사항을 갖춘 가속화된 컴퓨팅 플랫폼이 필요하다. 새로운 GH200 그레이스 호퍼 슈퍼칩 플랫폼은 탁월한 메모리 기술과 대역폭을 통해 처리량을 개선하고, 성능의 저하 없이 GPU를 연결해 성능을 통합한다. 여기에 전체 데이터센터에 쉽게 배포할 수 있는 서버 설계를 통해 이를 실현할 수 있다"고 말했다.

새로운 플랫폼에 사용된 그레이스 호퍼 슈퍼칩은 엔비디아 NV링크(NVLink™)로 추가 슈퍼칩과 연결할 수 있으며, 이들이 함께 작동해 생성형 AI에 사용되는 거대한 모델을 배포할 수 있다. 이 일관된 고속 기술은 GPU가 CPU 메모리에 완전히 액세스할 수 있도록 지원해 듀얼 구성 시 총 1.2TB의 빠른 메모리를 제공한다.

HBM3e 메모리는 기존 HBM3보다 데이터 전송 속도가 50% 빠르며, 초당 총 10TB의 대역폭을 제공한다. 이를 통해 새로운 플랫폼에서 이전 버전보다 3.5배 용량이 큰 모델을 실행할 수 있으며, 3배 빠른 메모리 대역폭으로 성능을 개선할 수 있다.

선도적인 제조업체들은 이미 이전에 발표된 그레이스 호퍼 슈퍼칩을 기반으로 한 시스템을 선보이고 있다. HBM3e가 탑재된 차세대 그레이스 호퍼 슈퍼칩 플랫폼은 기술의 도입을 확대하기 위해 올해 초 컴퓨텍스에서 공개된 엔비디아 MGX(MGX™) 서버 사양과 완벽하게 호환된다.

모든 시스템 제조업체는 MGX를 통해 100가지가 넘는 서버 변형에 그레이스 호퍼를 신속하고 비용 효율적으로 추가할 수 있다. 주요 시스템 제조업체는 2024년 2분기에 이 플랫폼을 기반으로 한 시스템을 제공할 것으로 예상된다.

저작권자 © 인공지능신문 무단전재 및 재배포 금지