GPU 최적화로 학습 기간 단축정예팀과 산업 AX 적용
  • ▲ ⓒ업스테이지
    ▲ ⓒ업스테이지
    업스테이지가 자체 개발한 거대언어모델(LLM) ‘솔라 오픈 100B(이하 솔라 오픈)’를 오픈소스로 공개했다고 6일 밝혔다.

    솔라 오픈은 업스테이지가 주관사로 참여 중인 과학기술정보통신부의 ‘독자 AI 파운데이션 모델 프로젝트’의 첫 결과물이다. 데이터 구축부터 학습에 이르는 과정 전반을 독자적으로 수행하는 ‘프롬 스크래치’ 방식으로 개발했다. 업스테이지는 해당 모델을 글로벌 오픈소스 플랫폼 ‘허깅페이스’에 공개하는 한편, 개발 과정과 기술적 세부 내용을 담은 테크 리포트도 함께 발표했다.

    1020억 매개변수 모델인 솔라 오픈은 성능 면에서 글로벌 프런티어급 모델들과 어깨를 나란히 했다. 중국의 대표 AI 모델인 ‘딥시크 R1’ 대비 사이즈는 15%에 불과하지만, 한국어·영어·일본어 3개 국어 주요 벤치마크 평가에서 성능을 상회했다.

    특히 한국어 능력은 압도적이다. 한국 문화 이해도와 한국어 지식 등 주요 한국어 벤치마크 결과 딥시크 R1 대비 2배 이상의 성능 격차를 보였다. 오픈AI의 유사 규모 모델인 ‘GPT-OSS-120B-Medium’과 비교해서도 100% 앞선 성능을 기록했다.

    고성능 배경에는 약 20조 토큰 규모 고품질 사전학습 데이터셋이 주효했다. 업스테이지는 대표적 ‘저자원 언어’인 한국어 데이터 부족을 극복하고자 다양한 합성 데이터와 금융·법률·의학 등 분야별 특화 데이터 등을 학습에 활용했다.

    향후 업스테이지는 해당 데이터셋 일부를 한국지능정보사회진흥원(NIA)의 ‘AI 허브’를 통해 개방해, 국내 AI 연구 생태계 활성화를 위한 공공재로 환원한다. 기업 경쟁력의 핵심 자산인 원천 데이터를 공개하는 것은 업계에서 이례적이다.

    솔라 오픈은 129개의 전문가 모델을 혼합한 ‘MoE’ 구조를 통해 실제 연산에는 120억개 매개변수만 활성화하는 방식으로 효율을 극대화했다. 또한 GPU 최적화를 통해 초당 토큰 처리량(TPS)을 약 80% 향상시키고, 자체 강화학습(RL) 프레임워크 ‘스냅PO(SnapPO)’를 개발해 학습 기간을 50% 단축했다.

    업스테이지는 컨소시엄 정예팀으로 참여중인 ▲노타 ▲래블업 ▲플리토 ▲한국과학기술원(KAIST) ▲서강대학교 등과 기술력을 결집했다. 향후 ‘AI로 여는 일의 표준’을 목표로 산업별 특화 서비스 개발에 박차를 가한다. AX 국면에서는 ▲금융결제원(금융) ▲로앤컴퍼니(법률) ▲마키나락스(국방·제조) ▲뷰노(의료) ▲오케스트로(공공) ▲데이원컴퍼니(교육) 등 각 분야 대표 기업들과 협력한다는 방침이다.

    김성훈 업스테이지 대표는 “솔라 오픈은 업스테이지가 처음부터 독자적으로 학습해낸 모델로, 한국의 정서와 언어적 맥락을 깊이 이해하는 가장 한국적이면서도 세계적인 AI”라며 “이번 솔라 오픈 공개가 한국형 프런티어 AI 시대를 여는 중요한 전환점이 될 것”이라고 말했다.