파워9 시스템, x86 대비 약 4배 높은 딥러닝 프레임워크 성능 제공

파워9(POWER9) 프로세서를 탑재한 차세대 파워 시스템 서버(사진:IBM)
파워9(POWER9) 프로세서를 탑재한 차세대 파워 시스템 서버(사진:IBM)

인공지능 시대는 매우 뛰어난 프로세싱 능력 이상의 더욱 높은 성능과 우수한 속도를 요구한다. 아울러 기술과 툴을 제공하는 혁신 기업들이 한데 모인 열린 생태계도 필요로 한다. 또한 딥러닝은 데이터에서 가장 중요한 요소를 탐지하고 순위를 매기기 위해 수백만 개의 프로세스와 데이터를 빠르게 처리하고 정보를 추출해내는 기계 학습 방식의 한 분야로 급성장하고 있다.

이처럼 다양한 산업에서 증가하고 있는 딥러닝 요구에 부응하고자, 리눅스 상의 딥러닝 워크로드, 데이터 집약적 AI를 위한 알고리즘과 스트리밍 센서, 자유 유동 데이터(free-flowing data) 관리를 위한 새로운 아키텍처 구축을 위해 IBM은 4년 전부터 파워9 칩 설계를 시작했었다.

오늘(6일) IBM(한국대표 장화진)은 새롭게 설계된 파워9(POWER9) 프로세서를 탑재한 차세대 파워 시스템 서버를 발표했다. 대규모 연산 작업을 요구하는 인공지능(AI) 워크로드에 특화된 새로운 파워9 시스템은 딥러닝 프레임워크 트레이닝 시간을 기존 x86 서버 대비 최대 약 4배 개선할 수 있어 기업이 한층 더 정확한 AI 애플리케이션을 신속히 개발할 수 있도록 지원한다.

파워9 칩 탑재, AI 전용 서버 출시(사진:IBM)
파워9 칩 탑재, AI 전용 서버 출시(사진:IBM)

새로운 파워9 기반 AC922 파워 시스템은 PCI-Express 4.0(x86 PCI Express 3.0 (x16) 최고 전송 속도는 15.75GB / 초 = 16 레인 X 1GB / 초 / 레인 x 128 비트 / 130 비트 인코딩이다)과 차세대 엔비디아 NV링크(NVlinkTM) 2.0(POWER9 및 NVLink 2.0 최대 전송 속도는 150GB / 초 = 48 레인 x 3.2265625GB / 초 x 64 비트 / 66 비트 인코딩이다), OpenCAPI를 업계 최초로 내장했으며, 이는 x86 시스템 기반 PCI-E 3.0보다 9.5배 빠른 속도로 데이터를 전송한다.

이 시스템은 키네티카(Kinetica)와 같은 가속 데이터 베이스 뿐만 아니라 체이너(Chainer), 텐서플로(TensorFlow), 카페(Caffe)와 같은 인기있는 AI 프레임워크에서 향상된 성능을 제공하도록 설계됐다. 따라서, 데이터 사이언티스트들은 과학 연구 분야 딥러닝, 실시간 사기 탐지, 신용 위험 분석과 같은 애플리케이션을 더욱 신속히 개발할 수 있다.

구글 플랫폼 부문 부사장 바트 사노(Bart Sano)는 “구글은 IBM이 최신 파워 기술 개발에서 이룬 성과에 주목하고 있다”며, “파워9 프로세서와 OpenCAPI 버스, 대용량 메모리는 구글 데이터 센터에 혁신의 기회를 제공할 것”이라고 말했다.

IBM 파워9 프로세서(사진:IBM)
IBM 파워9 프로세서(사진:IBM)

IBM 코그너티브 시스템 수석 부사장 밥 피치아노(Bob Picciano)는 “IBM은 AI와 코그너티브 워크로드에 대해 시장 판도를 뒤엎을 혁신적 시스템을 구축했다”며 “IBM 파워9 시스템은 세계 최고 성능의 슈퍼컴퓨터를 구동하는 것은 물론, 전세계 기업이 우수한 통찰력을 확보해 전 산업 분야에서 과학적 발견과 혁신적 비즈니스 성과를 창출할 수 있도록 한다”고 말했다.

아울러 파워9은 전세계에서 가장 강력한 슈퍼컴퓨터로 등극할 것으로 예상되는 미국 에너지부의 서밋(Summit)과 시에라(Sierra)에 탑재돼 두 컴퓨터의 세계 최고 성능을 뒷받침하는 역할을 하고 있으며, 이미 구글과 같은 다수 조직에서 활용되고 있다.

IBM은 최신 오픈소스 기술을 담은 하드웨어ㆍ소프트웨어가 통합된 완벽한 인프라를 제공하는 유일한 업체로 IBM 파워AI(PowerAI)를 활용해, 가속 기능을 보유한 파워 아키텍처 상의 딥러닝 프레임워크와 라이브러리 배치를 최적화, 간소화 했다. 이에 데이터 사이언티스트들은 단 몇 분 내에 인프라를 가동할 수 있다.

한편 IBM은 300개가 넘는 오픈파워재단과 OpenCAPI 컨소시엄 멤버로 구성돼 급성장 중인 오픈 커뮤니티의 혁신에 촉매제가 되고 있다. OpenCAPI 컨소시엄 회원에는 슈퍼마이크로, 인스퍼, 자일링스, 뉴타닉스, 엔비디아, 인벤텍, 위스트론, 멜라녹스 테크놀로지스, 앰페놀, 랙스페이스, 몰렉스 앤 알파 데이터, 도시바, 램버스, 마이크로세미, 구글,테크트로닉스, 웨스턴 디지털 등이 있다. 이 중 다수 회원들은 파워9용 제품과 솔루션을 론칭할 것으로 예상된다.

 

참고) x86 대비 약 4배 높은 딥러닝 프레임워크 성능: IBM 내부 측정 결과. 확대된 이미지넷 데이터셋(2560x2560)상의 확대된 구글넷 모델의 1000회 반복 / 하드웨어 : 파워AC922; 40 코어 (2 x 20c 칩), NV링크 탑재 파워9 2.0; 2.25 GHz, 1024 GB 메모리, 4x테슬라 V100 GPU 페가스1.0. /비교 재원: 2x 제온 E5-2640 v4; 20 코어 (2 x 10c 칩), 40 쓰레드; 인텔 제온E5-2640 v4; 2.4 GHz; 1024 GB 메모리, 4x테슬라 V100 GPU, 우분투 16.04. / 소프트웨어: Chainverv3 /LMS/Out of Core with CUDA 9 / CuDNN7(바로가기) 와 https://github.com/chainer/chainer/pull/3762 에서 제공된 패치 사용

저작권자 © 인공지능신문 무단전재 및 재배포 금지