xAI, 그록3 AI모델 개발에만 GPU 20만장 동원… 국내엔 2000장 뿐치열해지는 AI 성능 경쟁에 국내 AI는 LLM 리더보드 30위권 밖으로올해 GPU 1만장 확보키로 했지만 수요 충족시키기는 턱없이 부족
-
- ▲ ⓒChatGPT
일론 머스크가 이끄는 AI기업 xAI가 새 AI모델 ‘그록3(Grok3)’를 공개하면서 국내 AI기업의 한숨이 깊어가고 있다. ‘그록3’가 현 시점에서 가장 똑똑한 AI 성능을 자랑하게 된 배경에 xAI의 AI슈퍼컴퓨터 ‘콜로서스(Colossus)’가 자리하고 있기 때문이다. 이곳에서만 GPU 20만장을 보유 중이다.이에 반해 국내 보유 중인 GPU는 2000장 정도에 불과하다. 개별 기업이 비공개적으로 보유한 것을 포함해도 xAI 기업 하나가 보유한 양에 비교가 되지 못한다. 정부가 연내 1만장의 GPU를 확보하겠다는 목표를 밝혔지만 이를 포함해도 체급차이는 좁혀지지 않을 전망이다.GPU가 AI가 자랄 수 있는 토양으로 비교된다는 점에서 글로벌 AI 패권에서 대한민국의 설 자리가 좁아지고 있다는 평가가 나온다.20일 ICT업계에 따르면 최근 AI 기술 경쟁에서 국내 AI기업은 소외되는 중이다. 현재 글로벌 AI 패권 경쟁은 어느 때보다 치열하다.xAI의 ‘그록3’가 오픈AI를 겨냥해 최고의 성능이라는 타이틀을 걸고 나섰고 오픈AI 역시 추론용 AI모델 ‘o’ 시리즈를 기존 모델과 통합한 ‘챗GPT-4.5’를 출시하겠다고 예고한 상황. 중국의 ‘딥시크-R’이 공개된 것이 불과 한달 전이라는 점을 고려하면 AI 시장의 주도권 경쟁은 하루 건너 각축전이이 펼쳐지고 있다.이런 경쟁에서 국내 AI기업은 이렇다 할 존재감을 드러내지 못하고 있다. 지난해까지만 해도 국내 기업의 AI모델이 전세계 AI 순위를 매기는 허깅페이스 LLM(거대언어모델) 리더보드에 1위에 오르는 일이 있었지만 올해 들어서는 30위권 밖으로 밀려난 지 오래다.가장 근본적 문제는 개발 환경이다. AI는 학습 과정에서 대량의 GPU를 필요로 한다. 중국의 ‘딥시크’가 비교적 적은 GPU로 개발했다는 평가를 받고 있지만 이마저도 GPU가 많을수록 더 많은 실험과 개선 모델을 개발할 기회가 많아진다.현재 글로벌 격차는 크게 벌어진 상태다. 미국의 xAI가 보유 GPU만 20만장에 달하는 반면 국내 GPU 물량은 통틀어도 2000장에 불과하다.지난해 11월 유영상 SK텔레콤 대표는 ‘SK AI서밋’에서 “글로벌 빅테크가 평균 15만장의 GPU를 확보한 데 비해 국내에는 전체를 통틀어도 H100 GPU가 2000장 정도밖에 없다”고 어려움을 토로한 바 있다.H100보다 성능이 떨어진 GPU를 비롯해 각 기업이 공개하지 않은 GPU를 포함해도 국내 보유 GPU는 1만대에 미치지 못하리라는 관측이 지배적이다. 여기에 정부가 연내 1만장의 GPU를 확보해 국가AI컴퓨팅센터를 조기 개소하겠다고 계획을 앞당기고 있지만 GPU의 부족을 해소하기엔 터무니없이 부족하다. 1만장의 GPU 마저도 AI기업들이 나눠 사용한다면 실제 가용 가능한 기업당 GPU 리소스는 크게 체감되지 않으리라는 우려가 높다.업계 관계자는 “낮은 성능의 GPU를 돌리면서 AI 모델을 학습시키면 그 시간이 기하급수적으로 늘어나게 된다”며 “세계 각국 정부가 AI 경쟁력을 위해 막대한 민관투자를 진행하는 상황에서 우리 정부도 좀 더 전향적으로 나서야 할 것이라는 목소리가 많다”고 말했다.앞서, 국민의힘은 지난해 여야 합의로 확정된 인프라 확충 예산 증액 규모 1조2000억원과 함께, 2조원 규모의 GPU와 AI 인프라 확충을 위한 정부의 큰 예산 결단이 필요하다고 정부에 건의한 바 있다.





