네이버·삼성 공동개발 AI 반도체, 전력사용량 87.5% 절감구글, '제미니' 비용 절감 총력… 6월 대비 '4분의 1'로 뚝 '전기 먹는 하마'는 옛말… "AI 반도체 발전 덕분"
-
네이버, 구글 등 한미 대표 초거대 인공지능(AI) 기업들이 비용 절감에 총력을 기울이고 있다. 챗GPT 등 초거대 AI의 연간 운영비가 수천억 원에 달하는 가운데 저전력 AI 반도체 등을 활용한 비용 절감 노력이 이뤄지고 있다.19일 네이버에 따르면 회사가 삼성전자와 공동으로 개발하고 있는 AI 반도체는 기존 시스템 대비 전력을 8분의 1만 사용한다. 전력 사용량을 87.5% 줄였다는 소리다.이동수 네이버 클라우드 이사는 “저렴하게, 대량의 데이터센터 구동을 가능하게 함은 물론 현격한 전력 감소로 로봇, 자율주행 자동차 등에도 적용 가능 범위를 대폭 확대했다”며 “이 칩은 네이버 내의 사용뿐 아니라 외부 판매를 고려해 만든 칩”이라고 밝혔다.업계에서는 네이버와 삼성전자가 공동 개발한 해당 AI 반도체가 HBM이 아닌 LPDDR이라는 점에 주목하고 있다.삼성전자와 SK하이닉스의 ‘효자’ 제품으로 잘 알려진 HBM은 초거대 AI에 없어선 안 될 핵심 부품이다. ‘High Bandwidth Memory’의 약자인 HBM은 이름처럼 넓은 대역폭을 지니고 있다. 덕분에 대량의 데이터를 동시에 연산하는 초거대 AI에 안성맞춤이다.하지만 제조과정이 매우 복잡해 대량 양산이 어렵고 가격도 비싸다. 절대적인 전력 수치도 매우 높다.반면 삼성전자와 네이버가 채택한 LPDDR은 스마트폰, 노트북 등 모바일 장치에 탑재되는 저전력 반도체다. HBM 대비 양산이 쉽고, 가격이 저렴하며, 전력도 덜 소비한다.이 이사는 네이버와 삼성전자가 대량 양산의 가능성, 저전력에 초점을 두고 LPDDR을 선택했다고 밝혔다. 경량화 기술 덕분에 HBM을 썼을 때의 성능과 동일하거나 오히려 그 이상의 추론 성능을 가져올 수 있다고 설명했다. 현재 해당 반도체는 네이버의 초거대 AI '하이퍼클로바 X' 등에 테스트를 마친 상태다.최근 초거대 AI ‘제미나이(Gemini)’를 공개한 구글도 ‘효율성’에 초점을 맞추고 비용 절감에 열을 올리고 있다.구글에 따르면 제미나이에 드는 비용은 지난 6월 대비 현재 절반에서 4분의 1로 줄어들었다. 불과 반년 만에 비용이 반토막에서 반의 반토막 난 것.제미나이 발표 당시 ‘효율적(Efficient)’이라는 단어를 여러 차례 사용하며 강조했는데, 비결은 회사의 자체 AI 반도체에 있었다.
수십억 명의 이용자를 상대하는 구글 특성상 비용 절감은 필수였고 이에 회사는 자체 AI 반도체 TPU v4와 v5e 2종을 개발, 제미나이 1.0을 AI에 최적화된 시설에서 대규모로 학습시켰으며 자체 개발한 TPU v4, v5e를 이용한 것으로 전해졌다.업계 한 관계자는 “이제 초거대 AI는 성능은 기본이고 가격까지 저렴해야 경쟁력이 있다”며 “결국 얼마나 AI 반도체에 투자할 수 있냐가 관건이 될 것”이라고 말했다.