AI칩은 '로직·메모리·패키징' 결합 … 병목도 결합지점서 생겨삼성 HBM4 '첫 출하'와 '20%대' 논란, 타이틀과 물량은 별개데이터센터는 HBM, 피지컬AI는 LPDDR … 메모리도 투트랙
  • ▲ ⓒ챗GPT
    ▲ ⓒ챗GPT
    AI(인공지능) 반도체 경쟁의 무게중심이 그래픽처리장치(GPU) 단일 성능에서 HBM(고대역폭메모리) 공급력과 첨단 패키징 생산능력(캐파)으로 옮겨가고 있다. 테슬라 최고경영자(CEO) 일론 머스크가 최근 실적 발표 콘퍼런스콜에서 로직·메모리·패키징을 모두 포함하는 대규모 생산시설 ‘테라팹’ 필요성을 직접 언급한 것도 AI칩 공급망 병목이 결합 지점에서 발생한다는 인식을 반영한 행보로 해석된다. 

    AI 가속기는 연산 성능이 커질수록 데이터를 공급하는 속도가 따라오지 못해 병목이 생긴다. 이른바 ‘메모리 월’이다. 이를 완화하기 위해 D램을 수직으로 적층하고 TSV(Through Silicon Vias)라는 전극으로 연결해 대역폭을 끌어올린 HBM이 핵심 부품으로 자리 잡았다.

    HBM만으로는 완제품이 되지 않는다. GPU와 HBM을 초근접으로 묶어 하나의 시스템처럼 동작시키는 첨단 패키징 공정이 필수로 따라붙는다. 이 과정은 수율·열·전력·신뢰성이 동시에 걸려 캐파가 빠듯해질수록 전체 공급망이 막히기 쉽다는 지적이 반복돼 왔다. AI칩 공급 병목이 HBM과 패키징에서 동시에 터질 수 있는 구조라는 뜻이다.

    삼성전자가 엔비디아에 HBM4를 2월 셋째 주경 출하한다는 소식이 알려지면서 시장은 ‘기술 신뢰 회복’의 신호로 해석하고 있다. HBM4는 엔비디아 차세대 플랫폼(베라 루빈)에 적용되는 핵심 메모리다. 

    다만 ‘출하’와 ‘물량’은 별개라는 시각도 강하다. 엔비디아 HBM4 초기 배정과 관련해 삼성 비중이 20%대 중반, SK하이닉스가 50%대 중반 수준으로 알려졌다. 

    이 지점에서 핵심 변수는 캐파다. 업계에서는 삼성의 HBM4 기본 재료인 1c D램 생산 능력이 월7만장 수준(전체 D램 캐파의 10% 수준)이며, 평택4공장 증설 이후 1년 뒤 월19만장 수준으로 늘어날 것으로 전망한다. HBM은 공정 난도와 패키징 부담이 커 캐파 전환 속도가 점유율로 직결된다는 점에서, 초기 배정 비중만으로 성패를 단정하기 어렵다는 분석이 나온다. 

    수익성 변수도 거론된다. 범용 D램 가격이 강세를 보이면서 “HBM3E 12단과 가격 차가 크지 않다”는 평가가 나오고, 범용 D램은 첨단 패키징 부담이 상대적으로 적어 이익률이 높을 수 있다는 관측이 제기된다. 삼성 입장에서는 ‘HBM4 최초 출하’로 기술력 신호를 확보하면서, 동시에 범용 D램에서 수익성을 극대화하는 전략을 병행할 유인이 생긴다는 해석이다. 

    여기에 AI가 데이터센터를 넘어 로봇·자율주행 등 피지컬AI로 확장되면, 메모리 수요는 ‘HBM 중심 데이터센터’와 ‘저전력·저지연 중심 에지(Edge)’로 투트랙이 될 가능성이 커진다. 피지컬AI는 전력과 반응속도가 우선이라 HBM보다는 LPDDR 기반 구성이 늘 수 있다는 전망이 나온다.

    실제 휴머노이드 로봇용 모듈에서 서버급 HBM 대신 LPDDR을 쓰고 있고, 온디바이스 AI가 확대될수록 에지 AI 반도체 수요가 커질 수 있다는 관측이 이어진다. 

    업계 관계자는 “K메모리의 기회는 HBM 점유율 경쟁을 넘어, 에지용 저전력 메모리와 생태계 대응까지 포함하는 구조로 확장되고 있다”며 “삼성의 HBM4 출하와 초기 배정 관측은 기술력과 캐파의 간극이 실제 점유율을 좌우할 수 있음을 보여준다”고 말했다.