모델개발 개요, 벤치마크 지표 비교 수치 공개딥시크-V3.1 대비 수학·코딩 등 성능 앞서
  • ▲ ⓒ뉴데일리 김성현 기자
    ▲ ⓒ뉴데일리 김성현 기자
    SK텔레콤 정예팀은 매개변수 519B 규모 초거대 AI 모델 ‘A.X K1(에이닷엑스 케이원)’의 기술 보고서를 오픈소스 플랫폼 허깅페이스에 공개했다고 7일 밝혔다.

    에이닷엑스 케이원은 주요 벤치마크에서 딥시크-V3.1 등 세계적으로 많이 활용되는 초거대 모델과 유사하거나 더 높은 성능을 달성했다. 타 정예팀 대비 최소 2배 이상의 모델 규모에 더해 높은 성능까지 확보하며 주목받는 모습이다.

    SK텔레콤 정예팀은 1000개 GPU 자원을 활용해 모델 학습을 진행했다. 학습 기간과 GPU 규모를 바탕으로 가능한 총 학습량을 추산하고, 이를 바탕으로 최대 모델 크기를 스케일링 이론에 근거해 설계했다.

    특히 에이닷엑스 케이원은 이번 개발기간 동안 정부 지원을 받지 않고 자체 GPU 조달만으로 목표를 달성했다는 점에서 의미를 더한다.

    모델 학습에는 웹 데이터, 코드, 이공계 데이터, 추론 데이터 등 다양한 고품질 데이터를 활용했다. 한국어 특화 PDF 문서를 파싱해 합성 데이터를 생성했고, 난이도별 커리큘럼 학습 방식도 적용했다.

    A.X K1은 수학과 코딩 등 초거대 인공지능 모델의 능력을 필요로 하는 분야에서 우수한 성능을 구현했다.

    수학은 AIME25 벤치마크에서 89.8점을 받아 딥시크-V3.1 모델(88.4점) 대비 앞선 성능을 확인했다. 코딩 활용도 측면에서 측정한 LiveCodeBench는 영어 기반 75.8점, 한국어 기반 73.1점을 기록하며 실시간 코딩 문제 해결 능력을 입증했다. 딥시크-V3.1 대비 각각 109%, 110% 수준의 높은 성능을 보였다.

    A.X K1은 519B 규모의 파라미터 가운데 33B만 선택적으로 활성화하는 방식으로 효율성을 높였다. 전문가 혼합 구조를 채택해 AI 훈련 과정의 안정성과 효율을 동시에 확보한 것이 특징이다.

    이 외에도 에이닷엑스 케이원은 한 번에 128K 토큰의 긴 문맥도 처리할 수 있는 능력을 갖췄다. 이는 한국어 기준 약 10만 단어로서, AI 모델이 소설책 한 권 또는 기업 연간 보고서 한 권도 동시에 검토할 수 있는 수준이다.

    SK텔레콤 관계자는 “에이닷엑스 케이원에 연내 멀티모달 기능을 추가하고 조 단위 파라미터로 확대할 것”이라고 말했다.