운영 체제에 얽매이지 않고, 유연한 학습과 보다 효율적으로 그리고 학습 내용에 따라 GPU의 종류를 선택해 딥러닝 프로그램을 자유로운 환경 속에서 개발

9일 공개된 '뉴럴 네트워크 콘솔(Neural Network Console) 클라우드 서비스' 화면 캡쳐
9일 공개된 '뉴럴 네트워크 콘솔(Neural Network Console) 클라우드 서비스' 화면 캡쳐

소니는 지난해 6월 딥러닝(Deep Learning) 프레임 워크인 '코어 라이브러리(Neural Network Libraries)'를 오픈소스化(관련기사 참조) 했다. 이어 고급 사용자 인터페이스 딥러닝(Deep Learning) 프로그램을 생성할 수 있는 통합 개발 도구 '소프트웨어, 뉴럴 네트워크 콘솔(Neural Network Console)'를 오픈소스(관련기사 참조)로 지난해 8월부터 제공하고 있다. 프로그램 개발자 또는 연구자는 GUI를 가진 딥러닝 통합 개발 환경인 콘솔 소프트웨어를 사용함으로써, 직관적인 사용자 인터페이스에서 신경망의 설계, 학습 평가 등을 효율적으로 수행하면서 인공지능 딥러닝 프로그램을 개발하고 각종 제품과 서비스에 탑재할 수 있었다.

소니는 또 같은 해 11 월부터 오픈 β 판의 제공을 시작한 '뉴럴 네트워크 콘솔 클라우드 서비스'는 네트워크 연결 환경에서 웹 브라우저를 통해 운영 체제에 얽매이지 않고 Windows OS, Mac OS 및 Linux OS 환경에서도 자유롭게 액세스 할 수 있었으며, 이번에는 뉴럴 네트워크 콘솔(Neural Network Console) 클라우드 서비스에서 최대 8 대의 GPU 가속 학습 서비스를 오늘(9일)부터 시작했다.

이로서 프로그램 개발자 또는 연구자는 웹 브라우저에서 액세스 하는 것만으로 본격적인 GUI를 가진 딥러닝 통합 개발 환경인 콘솔 소프트웨어를 사용할 수 있으며, 직관적인 사용자 인터페이스에서 신경망의 설계, 학습, 평가 등을 실시하면서 다양한 딥러닝 프로그램을 개발하고 각종 제품과 서비스에 탑재할 수 있게 된 것이다.

지금까지 무료 오픈 β 는 1 계정 당 10 시간의 CPU 학습, 10GB 스토리지, 10 프로젝트라는 제약이 있었지만, 이번에 새롭게 제공하는 서비스는 더 큰 학습을 실행하거나 여러 프로젝트의 학습을 동시에 진행이 가능해 졌으며, GPU를 이용한 학습에서는 CPU에서의 학습에 비해 대부분의 신경망에서 10 배 이상과 신경망에 따라서는 100 배 이상 빠르게 학습이 가능해졌다.

한편 GPU 학습 환경의 사내 구축은 초기 비용과 유지·보수에 많은 비용이 소요되는 것이 일반적이며, 구축된 GPU 시스템은 딥러닝 학습을 실행하지 않는 경우에는 사용되지 않았으며, 또한 대량 데이터를 이용한 복잡한 학습을 실행하는 경우 GPU 시스템의 성능의 한계도 따랐다. 이번 소니의 새로운 서비스는 클라우드 환경에서 학습 시간에 따라 시간당 210 엔(약 2천원)의 저렴한 가격에 유연한 학습과 보다 효율적으로 그리고 학습 내용에 따라 GPU의 종류를 선택해 본격적인 딥러닝 프로그램을 자유로운 환경 속에서 개발할 수 있게 됐다.

 

참고) ▶소니 신경망 라이브러리(바로가기) ▶2017년6월27일 공개된 신경망 라이브러리의 첫 번째 릴리스- V0.9.0 최신버전 API 다운받기(바로가기) ▶2017년 8월 공개된 뉴럴 네트워크 콘솔(Neural Network Console) 다운로드(바로가기) ▶2018년 5월 9일 공개, 뉴럴 네트워크 콘솔(Neural Network Console) 클라우드 서비스(바로가기)

저작권자 © 인공지능신문 무단전재 및 재배포 금지