네이버, 세계 최고 머신러닝 컨퍼런스 ‘ICML 2019’에서 연구 성과 공개
네이버, 세계 최고 머신러닝 컨퍼런스 ‘ICML 2019’에서 연구 성과 공개
  • 권현주 기자
  • 승인 2019.06.14 09:44
  • 댓글 0
이 기사를 공유합니다

정규 세션 및 워크샵에서 3편의 논문 채택… AI 기반 기술 및 서비스 고도화 위한 기술 소개
Oral 세션 발표 전경
Oral 세션 발표 전경

네이버가 세계 최고의 머신러닝 컨퍼런스인 ‘ICML 2019’에 참석해 연구 성과를 공개했다. 올해로 36회를 맞은 ICML(International Conference on Machine Learning, 기계 학습 국제 학회)은 AI 중에서도 머신러닝 분야에서 최고 권위를 가진 컨퍼런스로, 올해는 지난 9일부터 15일까지 미국 캘리포니아에 위치한 롱비치 컨벤션 센터에서 열렸다.

특히, 네이버 클로바 인턴들이 진행한 ‘Curiosity-Bottleneck: Exploration by Distilling Task-Specific Novelty(Curiosity-Bottleneck 방법: 임무 특화 참신성 추출을 통한 탐색 전략)’는 정규 Oral 및 Poster 세션에 채택되는 성과를 얻었다. 이 연구는 AI가 새로운 정보를 학습하는 과정에서 불필요한 정보로 인해 성능이 저하되지 않도록, 실제 수행해야 할 과제와 관련 있는 정보만 반영하도록 하는 기술을 담았다. 이 기술은 AI를 만드는 AI 인 AutoML(Automated Machine Learning)에 적용될 수 있으며, 나아가 변화하는 환경 속에서 AI가 사용자에게 정확한 정보를 추천하는데 필요한 기반 기술이다.

이 연구는 클로바AI 인턴이었던 김영진님, 남원태님, 김현우님이 1,2,3저자로 참여한 논문이라는 점에서 더욱 눈길을 끌었다. 이들은 인턴기간 중 서울대 김건희 교수와, 클로바AI 김지훈 박사를 비롯한 클로바의 연구원들과 적극적으로 협업하고 멘토링을 지원받으며 연구를 진행했다. 클로바는 인턴들이 주도적으로 연구 과제를 발굴하고, 유의미한 결과를 도출할 수 있도록 양질의 연구 환경을 제공하고 있으며, 실제로 인턴십을 통해 진행한 연구가 CVPR, ICLR, AAAI, ACL, ICASSP 등 여러 세계적인 AI 컨퍼런스에서 인정받은 바 있다.

ICML 네이버 부스 전경
ICML 네이버 부스 전경

또한, 클로바팀은 딥러닝 모델에 대한 워크샵에서 이미지 인식 모델의 안정성 관련 연구인 ‘An Empirical Evaluation on Robustness and Uncertainty of Regularization Methods(조절 최적화 기법의 강건성 및 불확실성에 관한 실증 분석)’을 공유했으며, 음원 추천 머신러닝 워크샵에서는 ‘Visualizing and Understanding Self-attention based Music Tagging(셀프 어텐션 기반 음원 태깅의 시각화 및 이해에 관한 연구)’ 논문을 통해 새로운 음원 태깅 모델을 제시했다. 각각의 연구는 네이버와 라인의 이미지 인식 서비스와 음악 추천 서비스의 품질을 고도화하는 데 적용될 예정이다.

한편, 네이버는 네이버랩스유럽(NAVER Labs Europe)의 주도로 엑스포 워크샵(참고 링크)을 진행하고, 네이버랩스유럽과 클로바의 최근 연구 결과를 소개했다. AI 전문가들을 대상으로 반나절 동안 진행된 워크샵에서는 머신러닝 분야의 다양한 문제들을 어떻게 해결하고, 그 결과를 어떻게 산업에 접목시키는지에 대한 발표와 토론이 이뤄졌다.

또한 이번 ICML에 네이버-라인은 골드(Gold) 스폰서로 참여하며, 전세계 기술 기업 및 학계와 교류를 더욱 확대하는 한편, 현장에서 별도의 부스를 운영하며 AI 인재 영입에도 적극적으로 나섰으며, 네이버 클로바AI 김성훈 리더는 “네이버는 이제 각종 컨퍼런스에서 AI 분야의 트렌드를 이끌어가는 글로벌 리딩 기업 중 하나로 주목받고 있다”며, “앞으로도 꾸준한 연구 개발과 투자를 통해 기술 리더십을 이어나가겠다”고 밝혔다. 

 

참고) ICML2019에서 발표된 네이버 논문 목록

1. Curiosity-Bottleneck: Exploration by Distilling Task-Specific Novelty

▶저자: 김영진(서울대), 남원태(ML2), 김현우(서울대), 김지훈(NAVER), 김건희(서울대) ▶세션: 정규 Oral 및 Poster 세션 ▶내용: 기존의 강화학습 모델이 태스크와 무관한 새로운 정보에 과도하게 반응해 성능이 저하되는 문제를 해결하기 위해, 정보와 태스크와의 관련성을 예측해 관련 있는 정보만 정책 결정에 활용하도록 하는 기술

 2. ​An Empirical Evaluation on Robustness and Uncertainty of Regularization Methods

▶저자: 전상혁, 오성준, 윤상두, 한동윤, 최준석(연세대), 유영준 ▶세션: Robustness and Uncertainty in Deep Learning 워크샵 ▶내용: 이미지 인식 모델 학습시에 적용되는 다양한 조절 최적화 기법들이 모델 안정성과 불확실성에 미치는 영향을 분석한 논문

 3. Visualizing and Understanding Self-attention based Music Tagging

▶저자: 원상희(Universitat Pompeu Fabra Barcelona), 전상혁 ▶발표 세션: Machine Learning for Music Discovery 워크샵 ▶내용: 기존의 딥러닝 기반의 음원 태깅 모델을 개선해, 해석 가능한 새로운 음원 태깅 모델을 제시하고 음원의 리듬 템포 등의 태깅에 대한 모델 패턴을 분석한 논문

 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.