거대·폐쇄형 AI에서 경량화·오픈소스로 중심이동매개변수에 의한 결과값 품질도 큰 차이 없어기업적용·기기탑재 AI 최적화, 국내도입 활발
  • ▲ 구글이 경량화 언어모델 젬마를 공개했다 ⓒ구글
    ▲ 구글이 경량화 언어모델 젬마를 공개했다 ⓒ구글
    글로벌 AI 패권을 놓고 벌이는 치열한 경쟁 속에서 온디바이스 AI로 화두가 옮겨가며 경량화 언어모델이 주목받고 있다. 

    26일 업계에 따르면 구글은 경량화 언어모델(sLLM)이자 오픈소스 AI인 젬마를 공개했다. 젬마는 20억개 매개변수(파라미터)를 적용한 젬마 2B(Billion)과 70억개 매개변수의 젬마 7B으로 출시됐다. 

    대규모 언어모델인 GPT 3.5가 1750억개, 네이버 하이퍼클로바는 2040억개의 매개변수를 사용하는 것과 비교하면 적게는 수 십배에서 백배 가까이 차이가 난다.

    sLLM은 대규모 언어모델보다 매개변수와 학습에 필요한 데이터 양이 적어 빠른 학습과 실행이 가능하다는 특징이 있고, 전력 문제에서도 자유롭다. 기존에는 초거대 AI 시장에서 더 높은 기술력을 바탕으로 정확도와 속도를 목표로하는 거대언어모델(LLM) 개발 경쟁이 주를 이뤘다면, sLLM으로 경쟁 구도가 확장되는 모습이다.

    구글과 MS, 네이버 등 빅테크 기업들이 주도하는 LLM은 AI 반도체와 서버 등 개발을 위해 막대한 자원을 필요로 한다. 게다가 오픈소스가 아닌 폐쇄형으로, 외부에 정보가 공개돼있지 않아 이를 다른 기업에서 활용하기도 어렵다.

    sLLM은 기업들이 업무에 맞는 AI를 개발하고 활용하는데 최적화돼있다. 모든 지식을 포함한 AI보다 매개변수를 효율적으로 조정해 업무에 맞게 활용할 수 있는 AI가 활용도가 더 높다는 의미다.

    경량화된 거대 언어모델은 ‘온디바이스(On-Device)’ AI 구축에도 부합한다. 온디바이스 AI는 클라우드 서버를 거치지 않고 기기 자체에서 정보를 수집하고 연산하는 방식을 의미한다. 매개변수와 학습에 필요한 데이터 양이 줄어들면서 클라우드나 서버 뿐만 아니라 개인의 노트북과 PC, 모바일에도 탑재 가능하다는 장점이 있다.

    국내에서도 sLLM을 직접 개발하고, 서비스에 적용하는 움직임이 활발하게 이뤄지고 있다. 지난해 12월 카카오브레인이 개발한 sLLM을 기반으로 카카오톡에 적용된 ‘읽지 않은 메시지 요약’ 기능과 ‘메시지 말투 바꾸기 기능’이 대표적이다. 네이버는 LLM 하이퍼클로바에 이어 sLLM을 상용화하기 위한 AI 반도체 기술을 개발하면서 경량화 추세에 대응하고 있다.

    국내 이동통신 3사 중 SK텔레콤은 GPT 3.5를 적용한 에이닷을 운용 중이며, 딥러닝 기술을 활용한 sLLM을 개발하는 데 강점이 있는 스캐터랩에 지분투자를 진행했다. 온디바이스 AI를 적용하기 위한 단말 소비전력 절감 기술 개발도 같은 맥락이다.

    KT는 AI 반도체 기업 리벨리온과 초거대 AI ‘믿음’을 경량화하는데 집중하면서, 온디바이스 AI에 접목하는 연구개발을 지속하고 있다. LG유플러스는 자체 개발한 거대언어모델 ‘익시젠’의 활용 범위를 전체 사업에 확대할 계획이며, 이 과정에서 거대언어모델의 경량화는 필수 요건으로 보인다.

    업계 관계자는 “초거대 AI 분야에서 최근 흐름은 sLLM과 오픈소스를 통해 장벽을 낮추는 방향으로 가고 있다, (거대언어모델에서) 직접 경쟁으로는 구글·MS를 도저히 이길 수 없기 때문이기도 하다”며 “특히 거대언어모델은 산업에 적용하는데 분명히 한계가 존재하는 만큼 경량화 언어모델을 중심으로 한 AI 개발과 활용이 급속도로 확산될 것”이라고 말했다.