ARM, 엔비디아 및 인텔의 해당 포맷 제안의 원칙은 IEEE 표준화에 기반한 규약, 개념 및 알고리즘을 활용하는 것이다. 이번 포맷 제안은 현재의 산업 규약을 고수하면서 미래의 AI 혁신을 위한...

이미지:인텔, 편집:본지
이미지:인텔, 편집:본지

인공지능에 대한 컴퓨팅 요구 사항은 기하급수적으로 증가하고 있다. AI를 발전시키는 데 필요한 컴퓨팅 처리량을 달성하기 위해서는 하드웨어와 소프트웨어에 걸쳐 새로운 혁신이 필요한 상황이다.

증가하는 컴퓨팅 격차를 해결하기 위해 각광받고 있는 연구 분야 중 하나는 메모리 및 계산 효율성 개선을 위한 딥 러닝에 대한 수치 정밀 요구 사항을 줄이는 것이다. 정밀도 감소 방법은 심층 신경망의 고유한 노이즈 복원 특성을 활용해 컴퓨팅 효율성을 향상한다.

이에, 인텔과 ARM 그리고 엔비디아는 인공지능(AI) 학습과 추론에 적용되는 교환가능 포맷을 제공하기 위해 8비트 부동소수점(FP8) 사양 및 E5M2와 E4M3을 기술하는 연구 공동으로 14일(현지시간) 발표했다.

이러한 기업간 사양 합의를 통해, 다양한 AI 모델이 하드웨어 플랫폼을 넘나들며 일관되게 작동하고 성능을 발휘, AI 소프트웨어 개발을 가속화할 수 있으며, FP8은 하드웨어와 소프트웨어 간의 균형을 기반으로 기존 IEEE 754 부동소수점 형식으로부터의 편차를 최소화하여 기존에 적용 부분을 활용하고 신규 채택을 가속화하고 개발자 생산성을 향상한다.

인텔은 하바나® 가우디® 딥 러닝 가속기를 포함한 CPU, GPU 및 기타 AI 가속기에 대한 AI 제품 로드맵에서 해당 사양을 지원할 계획이다.

한편, FP8은 최신 프로세서에서 일반적으로 사용되는 16비트 형식을 넘어 딥러닝 학습과 추론을 가속화하기 위한 자연스러운 방법이다. 이 논문에서는 E4M3(4비트 지수 및 3비트 가수) 및 E5M2(5비트 지수 및 2비트 가수)의 두 가지 인코딩으로 구성된 8비트 부동 소수점(FP8) 이진 교환 형식을 제안했다.

이에 대한 공동 연구 결과는 지난 12일 '딥러닝을 위한 FP8 포맷(FP8 Formats for Deep Learning-다운)'란 제목으로 아카이브를 통해 발표됐으며, 이번 ARM, 엔비디아 및 인텔의 해당 포맷 제안의 원칙은 IEEE 표준화에 기반한 규약, 개념 및 알고리즘을 활용하는 것이다. 이는 현재의 산업 규약을 고수하면서 미래의 AI 혁신을 위한 가장 큰 자유도를 부여한다.

 

저작권자 © 인공지능신문 무단전재 및 재배포 금지