트레이니엄은 클라우드에서 머신러닝에 대한 최대 테라플롭스 컴퓨팅 성능을 제공하고 더 광범위한 머신러닝 애플리케이션 세트를 지원한다. 이 칩은 이미지 분류, 의미 검색, 번역, 음성 인식, 자연어처리(NLP) 및 추천 엔진을 포함한 애플리케이션 등에 딥러닝 학습 워크로드에 최적화...

AWS CEO 앤디 제시(Andy Jassy) 기조연설 모습(사진:AWS)
AWS CEO 앤디 제시(Andy Jassy) 기조연설 모습(사진:AWS)

AWS 최고경영자(CEO) 앤디 제시(Andy Jassy)는 1일(현지시간) 온라인으로 열린 `리인벤트2020 (re:invent)` 행사에서 기조연설을 통해 새로운 머신러닝 모델 훈련에 특화된 커스텀 칩 트레이니엄(Trainium)을 발표했다. 이 칩은 2021년 출시한다.

이 트레이니엄은 AWS에서 이전의 머신러닝 추론 칩 인퍼런시아(Inferentia)에 이은 두 번째 사용자 지정 머신러닝 칩으로 클라우드에서 머신러닝 모델을 학습시키기 위한 가격 대비 최고의 성능을 제공하도록 설계되었다고 한다.

또한 가장 비용 효율적인 머신러닝 학습을 제공하는 것 외에도 트레이니엄은 클라우드에서 머신러닝에 대한 최대 테라플롭스(TFLOPS) 컴퓨팅 성능을 제공하고 더 광범위한 머신러닝 애플리케이션 세트를 지원한다. 특히, 이 칩은 이미지 분류, 의미 검색, 번역, 음성 인식, 자연어처리(NLP) 및 추천 엔진을 포함한 애플리케이션 등에 딥러닝 학습 워크로드에 최적화되어 있다.

최근 기업들은 머신러닝 모델과 애플리케이션이 가속화됨에 따라 성능을 높이고 추론 및 학습에 따른 인프라 비용을 줄여야 하는 과제에 직면해 있다. 지난해 AWS는 클라우드에서 가장 저렴한 비용으로 고객에게 고성능 머신러닝 추론을 제공하는 사용자 지정 칩인 인퍼런시아를 출시했었다. 그러나 이 칩은 머신러닝 인프라 비용의 최대 90 %를 구성하는 추론 비용을 처리했지만 고정된 머신러닝 학습 비용으로 제한됐다. 이는 모델과 애플리케이션을 개선하는 데 필요한 학습의 범위와 빈도를 제한하는 것이다.

이번 출시한 AWS 트레이니엄은 클라우드에서 머신러닝 학습을 위해 최고의 성능과 최저 비용을 제공하여 이 문제를 해결한 것이다. 결과적으로 트레이니엄 칩과 인퍼런시아 칩를 모두 사용하면 고객은 AI 학습 워크로드 확장에서 추론 배포에 이르기까지 머신러닝 컴퓨팅의 엔드 투 엔드 흐름을 갖게 된다. 

정리하자면, AWS 트레이니엄은 AWS 뉴런(Neuron) SDK(보기)로 개발자가 클라우드 기반의 최저 비용으로 고성능 머신러닝 추론 성능을 제공하는 AWS 인퍼런시아 기반 Amazon EC2 Inf1(보기) 인스턴스를 사용하여 지연 시간이 짧은 고성능 추론을 실행할 수 있도록 지원한다. 뉴런 SDK는 텐서플로우(TensorFlow), 파이토치(PyTorch) 및 MXNet을 포함한 인기있는 머신러닝 프레임 워크와 통합되어 있기 때문에 개발자는 최소한의 코드 변경으로 GPU 기반 인스턴스에서 트레이니엄으로 쉽게 마이그레이션 할 수 있다.

이와 함께, 트레이니엄은 AWS 딥러닝 AMI는 물론 아마존 세이지메이커(SageMaker), 아마존 ECS, EKS, AWS Batch 등 관리형 서비스를 통해 사용할 수 있다.

 

저작권자 © 인공지능신문 무단전재 및 재배포 금지