차세대 AI칩 'GH 그레이스 호퍼 슈퍼칩' 선봬초당 5TB 정보전달 HBM 'HBM3e' 탑재...SK하이닉스 이어 삼성도 공급사로삼성·SK, 엔비디아發 HBM 훈풍에 생산능력 2배 확대AI 플랫폼 지원해 생태계 확장나서
  • ▲ ⓒ엔비디아
    ▲ ⓒ엔비디아
    그래픽처리장치(GPU) 1위인 미국 반도체 기업 엔비디아가 차세대 인공지능(AI) 칩을 공개하며 본격적인 AI 시대에 불을 지폈다. 이 칩에는 SK하이닉스와 삼성전자의 최신 고대역폭메모리(HBM)인 'HBM3e'가 탑재되며 국내 반도체업계에도 호재로 작용할 것으로 기대된다.

    엔비디아는 8일(현지시간) 미국 로스앤젤레스에서 열린 컴퓨터 그래픽스 콘서트 시그래프에서 차세대 AI 칩인 'GH200 그레이스 호퍼 슈퍼칩'을 공개했다. 이 칩은 현재 엔비디아의 최고 수준 AI 칩인 'H100'과 같은 GPU와 141기가바이트(GB) 메모리, 72코어 ARM 기반 프로세서(CPU)를 갖췄다.

    이번 슈퍼칩에는 초당 5테라바이트(TB) 속도로 정보를 전달할 수 있는 HBM인 'HBM3e'가 탑재된다. 현재 SK하이닉스가 유일하게 생산하고 있는 HBM3의 후속 제품인 HBM3e 또한 SK하이닉스가 공급하고 삼성전자도 오는 4분기부터 'HBM3p'를 출하해 엔비디아에 공급하는 것으로 알려졌다.

    앞서 엔비디아에 HBM3를 단독 제공했던 SK하이닉스에 이어 삼성전자까지 엔비디아에 새로운 HBM 공급사로 나서면서 국내 반도체업계에도 엔비디아발 훈풍이 불 것으로 기대된다. 이미 지난 2분기에도 고수익 제품인 HBM 수요 확대로 SK하이닉스가 D램 사업에서 큰 폭의 실적 개선을 이뤘는데 올 하반기부터 내년까지는 더 큰 수요가 창출되며 흑자전환의 핵심 역할을 할 것으로 보인다.

    이를 위해 삼성과 SK는 HBM 생산력을 내년까지 2배 늘리고 이후에도 연간 2배 이상으로 생산능력을 키워 수요에 적극 대응할 방침이다. 지난 2분기 실적발표에서도 이 같은 계획을 밝히며 엔비디아의 차세대 AI 칩에 HBM 공급사로 나서게 됐다는 점을 시사하기도 했다.

    엔비디아는 이 슈퍼칩을 내년 2분기 중에 생산한다고 밝혔다. 가격은 아직 비공개지만 이전 모델 대비 더 많은 메모리 용량과 빠른 처리 속도 등을 갖춘 것으로 볼 때 더 높아질 가능성이 점쳐진다.

    엔비디아는 이 칩이 특히 고용량 고성능의 AI모델의 추론용으로 설계됐다고 소개했다. 이 칩을 사용하면 지금보다 더 큰 규모의 AI 모델도 하나의 시스템에 장착해 운용할 수 있다고 강조했다.

    젠슨 황 엔비디아 최고경영자(CEO)는 "이 프로세서는 이전 모델보다 훨씬 강력하다"며 "증가하는 AI 컴퓨팅 파워 수요를 충족하기 위해 전 세계 데이터 센터 규모를 확장할 수 있도록 설계됐고 대규모 언어모델 추론 비용이 상당 부분 떨어질 것"이라고 설명했다.

    새로운 슈퍼칩 공개와 함께 엔비디아는 AI 생태계를 구축하기 위한 생성형 AI 개발 플랫폼인 'AI 워크벤치'도 조만간 출시한다고 밝혔다. 이 플랫폼을 통하면 누구나 생성형 AI 크리에이터가 될 수 있다는게 엔비디아의 설명이다.

    이 외에도 생성형 AI 개발을 위한 엔비디아의 AI 슈퍼컴퓨팅 서비스인 'DGX 클라우드'에 세계 최대 머신러닝 플랫폼인 '허깅페이스(Hugging Face)'를 접목할 수 있도록 지원한다고 밝혔다.