구글·오픈AI 경량화 AI 모델 출시 … 성능 낮아도 저비용 강점거대해진 LLM 대신 가볍고 효율적인 AI 개발 경쟁으로국내 ICT 업계도 AI 경량화 연구 활발 … 딥시크 경쟁 모델 개발
-
- ▲ ⓒChatGPT
중국의 AI 모델 ‘딥시크’ 후폭풍이 AI 경량화 경쟁으로 이어지고 있다. 기존 AI모델 경쟁이 성능, 기능에 맞춰져 있다면 ‘딥시크 R1’ 이후에는 양상이 달라졌다. 얼마나 낮은 비용으로 기능을 구현하는지가 관건이 되고 있는 것.국내 AI기업도 앞다퉈 경량화 모델을 선보일 것으로 전망되면서 AI의 경쟁이 새로운 국면으로 접어들기 시작했다는 평가가 나온다.10일 ICT업계에 따르면 글로벌 AI기업들은 앞다퉈 저비용 AI 모델을 선보이는 중이다.오픈AI가 지난달 31일 ‘o3’ 시리즈의 경량화 버전 ‘o3-미니’를 공개한 것에 이어 구글이 지난 7일 자체 AI모델 ‘제미나이’의 경량화 모델인 ‘제미나이 2.0 플래시 라이트’를 출시한 것. 이들 모델의 공통점은 비용 효율화다. ‘o3’나 ‘제미나이 2.0(프로 익스페리멘털, 플래시 씽킹)’ 보다 추론의 깊이나 정교함은 떨어지지만 경제적 측면의 강점을 극대화한 것이다.AI 빅테크 시장에서 선두인 두 업체의 이런 대응은 다분히 중국의 ‘딥시크’를 고려한 것으로 풀이된다. ‘딥시크 R1’은 딥시크가 지난해 12월 선보인 AI모델 ‘딥시크 V3’의 후속 모델로 저렴한 투자비용에 불구하고 오픈AI의 ‘o1’에 맞먹는 성능을 보여줬다.중요한 것은 이 효율성에서 비롯되는 비용의 감소다. AI모델은 말뭉치를 토큰으로 분할해 API 비용을 매기는데, ‘제미나이 2.0 플래시-라이트’는 100만 토큰당 0.019달러의 입력 비용을 책정했다. 같은 기준 ‘o3-미니’는 0.55달러다.딥시크는 100만 토큰당 ‘딥시크 R1’의 입력 비용으로 0.14달러로, ‘딥시크 V3’의 입력 비용으로 0.014달러를 책정해왔는데, 지난 8일 ‘딥시크 V3’의 입력 비용이 0.07달러로 5배 인상되면 가격 경쟁력 우위가 변했다. 구글이 AI 가격 경쟁력에서 오히려 앞서게 된 셈이다.이런 가격 경쟁력을 갖기 위해서는 AI모델에서 군더더기를 덜어내기 위해 덜 중요한 파라미터(매개변수)를 줄이거나 압축하는 기술, 알고리즘 경량화 기술이 필수적이다. 기존 거대언어모델(LLM)은 용량만 수백기가바이트(GB)에 달할 정도로 커졌기 때문에 구동에만 막대한 자원이 들어간다. AI가 장기적으로 스마트폰 등 ‘온디바이스’ 환경에서 구현되기 위해서도 경량화는 필수적이다.이 때문에 업계에서는 향후 AI 경쟁이 단지 똑똑한 것 이상으로 경량화, 저비용 경쟁이 본격화 될 것으로 보고 있다.실제 국내에서도 AI 경량화 모델에 대한 연구가 본격화되고 있다. LG AI연구소는 연내 자체 AI모델 ‘엑사원’을 ‘딥시크’ 수준으로 경량화 모델을 출시할 예정이다. 기존에도 네이버는 지난해 자사 AI ‘하이퍼클로바X’의 경량 모델 ‘하이퍼클로바X 대시’를 선보인 바 있고 LG유플러스는 아예 온디바이스를 위해 AI모델 ‘익시젠’을 처음부터 경량형 AI로 설계했다.업계 관계자는 “현재 ‘딥시크 R1’이 가장 효율적인 경량화에 성공했다는 평가를 받고 있는 만큼 이에 대한 연구가 활발하게 진해될 것”이라며 “장기적으로는 보다 저렴하고 효율적인 AI 경쟁의 신호탄이 됐다고 봐도 과언이 아니다”라고 말했다.





