세계 최초 10.7B 매개변수로 구성된 소형 모델로 추가학습 가능한 사전학습 모델과 실사용성 높은 파인튜닝 모델 모두 공개… SLM 생태계 확장 견인

김성훈 대표는 “세계 AI회사들을 압도하는 모델을 공개하게 되어 기쁘고 업스테이지 솔라가 모두를 위한 모델이 되기를 희망한다” 며, “지속적으로 더 큰 격차를 벌릴 수 있는 최고 성능의 솔라 모델을 활용, B2B 시장에서의 협력도 추진할 것”이라고 밝혔다.
김성훈 대표는 “세계 AI회사들을 압도하는 모델을 공개하게 되어 기쁘고 업스테이지 솔라가 모두를 위한 모델이 되기를 희망한다” 며, “지속적으로 더 큰 격차를 벌릴 수 있는 최고 성능의 솔라 모델을 활용, B2B 시장에서의 협력도 추진할 것”이라고 밝혔다.

국내 대표 AI 스타트업 업스테이지(대표 김성훈)가 자체 개발한 사전학습 대형언어모델(Large Language Model, LLM) ‘솔라(Solar)’를 14일, 공개하고 글로벌 생성 인공지능(Generative AI) 대전에 출사표를 던졌다.

업스테이지는 이날 세계 최대 머신러닝 플랫폼 허깅페이스에서 운영하는 ‘오픈 LLM 리더보드’에서 세계 1위를 차지한 사전학습 LLM 솔라를 공개했다. 이번 결과는 소형 LLM(SLM)의 기준이라고 할 수 있는 300억 매개변수(30B) 이하 사이즈로 글로벌 최고 성능 모델에 올라 더욱 의미가 깊다.

업스테이지 솔라는 ‘Specialized and Optimized Llm and Applications with Reliability’의 약자로, 업스테이지는 지난 8월, 오픈LLM 역사상 최초로 GPT-3.5의 벤치마크 점수를 뛰어넘어 주목을 받은 자사의 허깅페이스 1위 모델을 시작으로 솔라 모델을 개발했다.

#1 SLM Upstage Solar 10.7B
#1 SLM Upstage Solar 10.7B

허깅페이스 오픈 LLM 리더보드는 오픈소스 생성 AI 모델의 바로미터로 꼽힌다. 전 세계 500여개의 오픈 모델들이 추론과 상식 능력, 언어 이해 종합능력 및 환각현상(할루시네이션) 방지, 대명사 참조 및 수학 해결 능력 등 6가지 지표의 평균 점수로 경쟁, 공신력 있는 순위가 매겨진다.

업스테이지의 ‘솔라’는 기업들이 활용하기 좋은 프라이빗 LLM을 위해 작은 크기로 구성된 사전학습 모델로, 세계 최초의 107억 매개변수(10.7B) 모델이다. 업스테이지는 고도의 지능과 컴팩트함이라는 완벽한 균형을 찾은 모델이라고 평가했다. 

업스테이지 솔라는 리더보드 평가에서 74.2점을 기록하며 전체 1위를 차지하는 기염을 토했다. 이로서 업스테이지의 솔라는 알리바바의 최신 모델인 큐원(Qwen)의 6분의 1도 안되는 크기로 이를 훌쩍 뛰어넘는 성능을 증명했다.

 H6 : 허깅페이스 벤치마크 6가지 지표 기준 평균점수
 H6 : 허깅페이스 벤치마크 6가지 지표 기준 평균점수

업스테이지는 다양한 연구를 통해 작은 사이즈의 솔라 모델 성능을 최적화했다. 업스테이지는 성능이 좋지만 큰 13B 모델과 충분히 작지만 지적 제약이 있는 7B 모델 사이의 장점을 모두 잡는 최적의 모델 크기를 찾기 위해 오픈소스의 7B 모델들을 기반으로 자체적인Depth Up-Scaling 방식을 적용, 레이어를 추가하며 깊이를 더해 소형 모델의 성능을 극대화했다. 

그 결과 업스테이지는 3조 개가 넘는 토큰의 우수한 데이터를 통해 확장된 10.7B를 완성, 크기와 성능의 최적의 조합으로 모델을 구축했다고 밝혔다.

또한, 업스테이지의 솔라 모델은 사전 학습 및 파인튜닝 단계에서는 리더보드 벤치마킹 데이터 셋을 사용하지 않고, 자체적으로 구축한 데이터를 적용했다. 이는 리더보드 점수를 높이기 위해 벤치마크 셋을 직접 적용하는 모델들의 사례와 달리 솔라는 다양한 태스크의 실제 업무 활용 등 일반적인 경우 높은 사용성을 보여줄 수 있음을 반증한다.

특히 최근 20억 달러의 기업 가치로 유니콘에 오른 미스트랄AI의 최신 모델 믹스트랄(Mixtral 8x7B) 모델의 성능지표마저 뛰어넘어 글로벌 무대의 이목도 집중시켰다. 믹스트랄은 작은 전문 모델 여러 개를 묶는 방식으로 소형 모델임에도 메타 ‘라마’와 GPT-3.5를 능가해 최근 가장 뜨거운 관심을 받고 있는 모델이다. 

믹스트랄은 70억 파라미터의 전문 모델 8개를 묶어 사전학습 모델 중 최고의 성능을 보인 바 있지만, 업스테이지의 솔라는 고도의 모델링 노하우와 최적화 기술력으로 믹스트랄 모델보다 더 가벼운 크기에도 불구하고, 벤치마크평가에서 더 나은 성능을 보였다.

이번 솔라 모델은 사전학습 모델까지 상업적 활용까지 가능하게 공개해 오픈 LLM 생태계의 관심을 모은다. 업스테이지는 실사용성 높은 파인튜닝 모델은 물론 자체 추가 학습이 가능한 사전학습 모델까지 모두 공개했다. 

특히 모델의 성능을 자체적으로 끌어올리는데 사용할 수 있는 사전학습 모델 역시 파인튜닝 모델과 함께 공개된 업스테이지의 솔라 모델이 허깅페이스 리더보드 평가 기준 66.04점으로 소형 모델의 대표 주자인 알리바바의 큐원(Qwen), 메타의 라마2(Llama 2), 미스트랄AI의 미스트랄(Mistral) 사전학습 모델들을 모두 제치고 1위에 올랐다.

이를 통해 기업들은 업스테이지의 솔라 모델을 기반으로 자신들의 데이터와 목적에 맞게 추가 학습하고, 다양한 생성 AI 서비스를 구축하고 운영할 수 있게 돼, 더 큰 관심을 모은다.

업스테이지는 AWS, Poe, Together.ai 등 글로벌 플랫폼과의 협력을 통해 최고 기술력을 바탕으로 글로벌 생성 AI 시장에 본격적으로 진출할 계획이다. 업스테이지는 최근 ‘AWS 리인벤트 2023’ 행사에 참석, AWS의 클라우드 서비스와 AI 플랫폼을 활용해 자체 개발한LLM을 구축하고 운영하는 과정과 성과에 대해 설명하며 AWS와의 협력을 밝힌 바 있다. 

뿐만 아니라 업스테이지는 글로벌 생성 AI 활용 플랫폼 Poe에 메인 모델로 등록되어 있는 솔라 모델을 업데이트해 대중들이 최고 성능의 업스테이지 LLM을 직접 경험해 볼 수 있도록 할 예정이다. Poe는 쿼라가 운영하는 플랫폼으로, 다양한 AI 모델과 대화하고 원하는 프롬프트를 입력해 나만의 챗봇을 만들 수 있다.

업스테이지는 이번 모델 개발에 앞서 국내 최초 수학 GPT와 이커머스 프라이빗 LLM을 구축하는 등 다양한 분야에서 모델 구축의 노하우를 축적한 바 있다. 업스테이지는 콴다, KT와 함께 세계 최고의 수학 GPT를 구축, 생성형 AI가 약한 추론 영역까지 LLM의역량을 확장하고 있다. 또한 커넥트웨이브와 이커머스 업계 최초로 프라이빗 LLM을 구축하며 다양한 산업군의 니즈를 충족시키며 프라이빗 LLM 시장의 강자로 자리 잡고 있다.

업스테이지의 김성훈 대표는 “세계 AI회사들을 압도하는 모델을 공개하게 되어 기쁘고 업스테이지 솔라가 모두를 위한 모델이 되기를 희망한다” 며 “KT의 전략투자를 통한 지원이 큰 도움이 되었고 앞으로 지속적으로 더 큰 격차를 벌릴 수 있는 최고 성능의 솔라 모델을 활용, B2B 시장에서의 협력도 추진할 것”이라고 밝혔다.

 

저작권자 © 인공지능신문 무단전재 및 재배포 금지