도시바, 딥러닝 가속기 탑재한 차량 애플리케이션용 이미지 인식 SoC 개발
도시바, 딥러닝 가속기 탑재한 차량 애플리케이션용 이미지 인식 SoC 개발
  • 최창현 기자
  • 승인 2019.02.27 16:04
  • 댓글 0
이 기사를 공유합니다

새로운 이미지 인식 SoC는 기존 제품 대비 효율성은 4배, 속도는 10배 끌어올린 딥러닝 가속기(Deep Learning Accelerator)를 구현한 제품으로

도시바 일렉트로닉 디바이스 앤 스토리지 코퍼레이션(Toshiba Electronic Devices & Storage Corporation, 이하 도시바)이 자동차 애플리케이션용 이미지 인식 SoC(System on Chip)를 개발했다고 26일 발표했다. 또 SoC는 자동차 애플리케이션 기능 안전성의 국제표준인 ISO26262를 준수하며, 차세대 이미지 인식 프로세서인 ViscontiTM5의 샘플은 올해 9월부터 출하할 계획이다.

새로운 이미지 인식 SoC는 기존 제품 대비 효율성은 4배, 속도는 10배 끌어올린 딥러닝 가속기(Deep Learning Accelerator)를 구현한 제품으로 지난 19일 미국 샌프란시스코에서 개최된 2019 국제고체회로설계학회(IEEE International Solid-State Circuits Conference, ISSCC)에서 세부적인 기술 정보를 공개한 바 있다.

뇌의 신경망을 본떠 설계한 알고리즘인 심층신경망(Deep Neural Networks, DNN)은 전통적인 패턴 인식이나 머신러닝 보다 훨씬 더 정확하게 인식 프로세스를 처리하기 때문에 자동차 애플리케이션 분야에서 활용도가 높을 것으로 기대를 모은다. 그러나 기존 프로세서로 DNN 기반 이미지 인식을 시행하면 시간이 걸린다. 방대한 양의 MAC(multiply-accumulate)을 계산하기 때문이다. 기존 프로세서를 통한 DNN 이미지 인식은 시간뿐만 아니라 전력 소모량도 높다.

DNN 가속기 개요
DNN 가속기 개요

도시바는 하드웨어에 딥러닝을 구현한 DNN 가속기를 통해 이러한 문제를 극복했으며, 도시바가 개발한 이미지 인식 SoC의 3가지 특징으로는 먼저 DNN 프로세싱은 많은 MAC 계산을 요구한다. 도시바의 이미지 인식 SoC는 256 MAC 프로세서 4개를 탑재했다. 이를 통해 DNN 프로세싱 속도를 끌어올렸다.

또한 기존 SoC는 로컬 메모리가 없어서 DNN 처리 장치에 근접한 시간 데이터를 유지하지 못하고, 로컬 메모리 접속 시 전력을 많이 소모한다. MAC 계산에 필요한 대용량 데이터를 로딩할 때도 전력 소모가 크다. 도시바의 이미지 인식 SoC에 탑재된 SRAM은 DNN 처리 장치에 가깝게 구현되고, DNN 프로세싱이 서브-프로세싱 블록으로 나뉘어져 있어 시간 데이터를 SRAM에 유지하며, DRAM 접속을 줄인다.

도시바는 가속기에 압축해제 장치도 추가했다. 사전에 DRAM에 저장·압축된 대용량 데이터는 압축해제 장치를 거쳐 로딩 된다. 이런 방식으로 DRAM에서 대용량 데이터를 로딩할 때 발생하는 전력 소모량을 줄이며, 기존의 딥러닝은 각각의 DNN 레이어를 처리한 후 SRAM에 접속해야 한다. 이는 전력 소모를 키우는 요인이다. 도시바의 딥러닝 가속기는 DNN의 DNN 처리 장치에 파이프라인(pipelined) 레이어 구조로 한 번의 SRAM 접속으로 일련의 DNN 계산을 실행할 수 있다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.