사용된 코드 및 실험 코드를 깃허브를 통해 오픈소스로 공개

연구팀의 수상기념촬영 모습(왼쪽부터) 안정섭 교수, 백승수 석사과정, 정진우 박사과정(사진:아주대)
연구팀의 수상기념촬영 모습(왼쪽부터) 안정섭 교수, 백승수 석사과정, 정진우 박사과정(사진:아주대)

아주대학교(총장 최기주) 소프트웨어학과 안정섭 교수 연구팀이 국제컴퓨터학회(Association for Computing Machinery, ACM) 주최로 지난 8일부터 12일까지 이탈리아 로마에서 개최된 하드웨어 및 소프트웨어를 망라한 컴퓨터 시스템 분야 글로벌 최고 학술대회 '유로시스2023(EuroSys 2023)'에서 ‘최우수 연구 기록물상(Best Artifact Award)’을 수상하는 쾌거를 이뤘다.

이번 학술대회는 인공지능(AI) 머신러닝, 보안, 네트워킹, 클라우드 컴퓨팅 등에서 필요로 하는 시스템 분야의 전문가들이 모여 발표하고 관련 인사이트를 공유했으며, 관심 주제에는 운영 체제, 데이터베이스 시스템, 실시간 시스템, 네트워크 시스템, 스토리지 시스템, 미들웨어, 분산, 병렬 및 임베디드 컴퓨팅 시스템 등이 포함됐다

안정섭 교수팀은 이번 학술대회에서 'GPU 서버 시스템에서 딥러닝 모델을 빠르고 효율적으로 서빙하는 기법(Fast and Efficient Model Serving Using Multi-GPUs with Direct-Host-Access-다운)'이라는 제목으로 발표됐다. 연구에는 인공지능학과 정진우 박사과정과 백승수 석사과정이 함께 참여했다.

특히, 연구팀의 연구는 데이터 센터 등에서 구동되는 딥러닝 모델 추론 서버의 효율을 높이는 방안에 대한 것으로 그동안 서버의 GPU(Graphics Processing Unit, 그래픽처리장치)를 포함한 하드웨어 가속기는 메모리 부족 현상 때문에 다수의 딥러닝 모델을 구동하는데 한계를 보여 왔다. 

연구팀의 발표 모습
연구팀의 발표 모습

연구팀은 추론 처리를 위한 딥러닝 모델이 GPU 메모리가 존재하지 않더라도 호스트 메모리로부터 모델을 복사해오는데 발생하는 지연 시간을 줄이는 기술 두 가지를 개발했다.

이 기술들을 통해, 기존 대비 빠르게 지연 없이 더 많은 모델을 서비스 할 수 있음을 보여줬다. 버트(BERT) 기본 모델의 경우, 기존 연구 대비 최대 1.94배 빠른 응답 속도를 제공할 수 있었고 서버 환경에서 사용자 경험을 나타내는 지연 시간 이내에 1.84배 더 많은 모델을 서비스 할 수 있음을 확인했다. 

안정섭 교수는 “아주대 연구팀에서 자체 개발한 기술을 세계적으로 우수한 학술대회에서 발표하게 되어 기쁘게 생각한다”며 “함께 고생한 정진우 그리고 백승수 학생이 있기에 가능한 결과였다”라고 전했다

한편, 안정섭 교수팀은 사용된 코드 및 실험 코드를 깃허브를 통해 오픈소스(다운)로 공개했고 이에 대한 유로시스 2023의 평가를 통해 ‘최우수 연구 기록물상(Best Artifact Award)’ 을 수여받았다. 학회는 이번에 발표된 논문 중에서 공개된 컴퓨터 프로그램을 평가해 2개 팀에 ‘최우수 연구 기록물상’을 수여했다. 해당 프로그램의 동작 가능 여부와 재현 가능 여부가 평가 기준이다. 

 

저작권자 © 인공지능신문 무단전재 및 재배포 금지