퀄컴, '퀄컴 클라우드 AI 100' 플랫폼 발표...개발자는 완벽한 도구 및 프레임 워크 스택을 지원받을 수 있으므로 엣지 클라우드 및 엣지 디바이스에 배포할 수 있는 훈련 된 신경망 모델을 만들 수 있으며, TensorFlow, Keras, PyTorch, Glow 및 ONNX를 포함, 최첨단 소프트웨어 스택을 지원

Cloud AI 100 플랫폼은 모바일 칩의 재포장이 아니며, 학습보다는 AI 추론 작업을 위한 것으로
Cloud AI 100 플랫폼은 모바일 칩의 재포장이 아니며, 학습보다는 AI 추론 작업을 위한 것으로

퀄컴 테크롤로지(Qualcomm Technologies, 이하 퀄컴)가 9일(현지시각) 샌프란시스코에서 개최된 퀄컴 'AI Day 2019'에서 현재, 업계의 가장 진보된 CPU, GPU 및 FPGA에 걸쳐있는 경쟁 AI 추론 솔루션보다 와트 당 10 배 이상의 AI 추론 워크로드를 처리하기 위해 특별히 설계된 매우 새롭고 효율적인 칩 '퀄컴 클라우드 AI 100(Qualcomm® Cloud AI 100)'를 발표했다.

발표에 따르면 개발자는 완벽한 도구 및 프레임 워크 스택을 지원받을 수 있으므로 엣지 클라우드 및 엣지 디바이스에 배포할 수 있는 훈련 된 신경망 모델을 만들 수 있으며, TensorFlow, Keras, PyTorch, Glow 및 ONNX를 포함, 최첨단 소프트웨어 스택을 지원한다. 엣지 클라우드는 낮은 대기 시간의 응답, 저전력 처리, 낮은 대역폭 비용 및 작은 저장 공간을 가능케 하는 장치 내 프로세싱을 보완한다.

또한 분산 AI 처리 작업을 확장함으로써 컴퓨터 시각 응용 프로그램, 자연 언어 처리 및 번역을 위한 개인 비서, XR(Extended Reality) 등에 사용자 경험을 향상시킨다.

이번 발표된 Cloud AI 100 플랫폼은 모바일 칩의 재포장이 아니며, 학습보다는 AI 추론 작업을 위한 것으로 엔비디아의 Tesla T4 시리즈와 서버 및 클라우드 컴퓨팅 용으로 설계된 Google Edge TPU 추론 칩 과 직접 경쟁하게 될 것으로 예상된다.

성능면에서는 퀄컴은 스냅드래곤(Snapdragon) 855의 성능보다 무려 50 배 이상의 AI 성능 향상을 보였다고 한다. 즉, 스냅드래곤 855가 약 7 TOPS의 성능을 제공하므로 Cloud AI 100은 약 350 TOPS 범위에 있는 것이다.

한편, 퀄컴은 신호 처리 및 5G에 대한 전문 지식을 활용하기를 원하므로 향후 매우 낮은 대기 시간의 네트워크에서 클라우드 플랫폼이 최첨단에서 작동 할 수 있다고 밝혔다. 또한 Cloud AI 100에서 적용 된 아키텍처가 독점적인지 또는 라이센스를 제공 받았는지 여부는 언급하지 않았으며, Cloud AI 100은 7nm 공정 기반으로 금년 하반기에 샘플링이 시작될 예정이다.

저작권자 © 인공지능신문 무단전재 및 재배포 금지