NGC의 MATLAB 컨테이너로 딥러닝 속도 향상

이미지 각사, 편집:본지
이미지 각사, 편집:본지

매스웍스(MathWorks)는 엔비디아 GPU 클라우드(NGC) 컨테이너 레지스트리에서 새로운 GPU 가속화 컨테이너의 가용성을 23일(현지시각) 발표했다. 이제 연구자와 개발자는 매트랩(MATLAB)의 딥러닝 워크플로우를 사용하여 엔비디아 DGX 시스템 또는 지원되는 클라우드 서비스 공급자의 여러 GPU를 활용하고 PC 및 워크스테이션에서 엔비디아 GPU를 선택할 수 있다.

특히 AI 솔루션을 구축하는 연구원 및 개발자는 학습 시간을 최소화하기 위해 클라우드 및 HPC 리소스에 액세스할 수 있어야 한다. 이제 NGC의 GPU 가속 매트랩(MATLAB) 컨테이너를 통해 사용자는 딥러닝 학습을 크게 가속화하고 매트랩 애플리케이션 및 도구를 사용하여 딥러닝의 생성, 수정, 시각화 및 분석할 수 있다. 현재, 매트랩은 텐서플로우(TensorFlow)보다 최대 7 배, Caffe2 보다 최대 4.5배 빠른 배포 모델을 실행하고 있다.

한편 AI 프로젝트를 가속화하는 것이 핵심이지만 클라우드 또는 HPC 자원으로 마이그레이션 하는 과정은 복잡하고 시간이 많이 걸릴 수 있다. 사전 구성된 컨테이너는 소프트웨어 설치 및 통합 시간을 줄여 새로운 컴퓨팅 환경에서 매트랩에 대한 액세스를 향상시켜 NGC 플랫폼에 간단한 설치로 혁신적인 성능을 제공하므로 사용자는 연구에서 프로토 타입, 생산에 이르기까지 매트랩 및 통합된 딥러닝 워크 플로우에 액세스 할 수 있다.

저작권자 © 인공지능신문 무단전재 및 재배포 금지