쿼드 코어·리눅스 지원 RISC-V, 맞춤형 명령 기능으로 AI 가속화

프로그래밍 가능한 제품 플랫폼 및 기술을 선도하는 에피닉스(Efinix)가 자사의 혁신적인 FPGA의 인공지능(AI)을 가속하기 위한 TinyML 플랫폼을 출시한다고 15일(현지시간) 발표했다.

TinyML 플랫폼은 리눅스 지원 고성능 사파이어 RISC-V(Sapphire RISC-V) 프로세서와 함께 구동한다. 모델 프로파일러와 가속기 선택을 위한 그래픽으로된 사용자 인터페이스로 구성된 TinyML 플랫폼은 쿼드 코어 지원 사파이어 코어에 가속 AI 기능을 제공한다.

마크 올리버(Mark Oliver) 에피닉스 마케팅 담당 부사장은 “AI 워크로드를 컨텍스트와 관련이 있는 환경에서 원시 데이터에 즉시 액세스할 수 있는 ‘파 에지(far edge)’로 유도하는 추세가 늘고 있다. 전력과 공간이 제한된 환경에서 이러한 AI 알고리즘에 충분한 컴퓨팅을 제공하는 것은 매우 어려운 과제다”고 말했다.

이어 “회사의 TinyML 플랫폼은 에피닉스 FPGA 아키텍처의 효율성이 결합한 고성능 임베디드 RISC-V 코어의 잠재력을 활용하며 이를 설계자에게 직관적으로 제공해 출시 시간을 단축하고 에지에서의 AI 채택 장벽을 낮춘다”고 덧붙였다.

엣지 비전 SoC(Edge Vision SoC) 프레임워크 기반으로 AI 모델 구현(사진:에피닉스)
엣지 비전 SoC(Edge Vision SoC) 프레임워크 기반으로 AI 모델 구현(사진:에피닉스)

TinyML 플랫폼은 RISC-V의 맞춤 명령어 기능을 바탕으로 선택된 텐서플로 라이트(TensorFlow Lite) 모델의 요건에 맞춘 확장형 가속 명령어 라이브러리를 제공한다. 명령은 복잡성과 크기가 다양하며 최종 사용자의 애플리케이션에 필요한 리소스, 가속 대안에 맞게 그래픽으로된 사용자 인터페이스에서 선택할 수 있다.

설계자는 엣지 비전 SoC(Edge Vision SoC) 프레임워크를 기반으로 AI 모델을 구현해 출시 시간을 더욱 단축할 수 있다. 에지 비전SoC 프레임워크와 TinyML 플랫폼은 모두 에피닉스 깃허브(GitHub) 페이지의 오픈 소스 커뮤니티에서 사용할 수 있다.

 

저작권자 © 인공지능신문 무단전재 및 재배포 금지