엔비디아 '베라 루빈' 맞춤형 192GB 제품 본격 양산전력·냉각·총소유비용 따지는 추론 시대 정조준
-
- ▲ SK하이닉스 SOCAMM2 192GB(기가바이트) 제품ⓒSK하이닉스
SK하이닉스가 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반 차세대 메모리 모듈 규격인 '소캠(SOCAMM)2 192GB(기가바이트)' 제품을 본격 양산한다고 20일 밝혔다.회사는 이 제품이 엔비디아의 차세대 플랫폼 ‘베라 루빈’에 최적화돼 있으며, AI(인공지능) 서버에서 발생하는 메모리 병목을 줄이는 데 초점을 맞췄다고 밝혔다.이번 발표의 의미는 단순한 신제품 추가에 그치지 않는다. 그동안 AI 서버 메모리 시장이 HBM(고대역폭메모리) 중심으로 재편돼 왔다면, 이제는 HBM과 DDR5 RDIMM 사이의 공백을 메울 중간 계층 메모리를 누가 먼저 안착시키느냐가 새로운 경쟁 포인트로 떠오르고 있어서다. SK하이닉스는 SOCAMM2를 통해 AI 서버용 메모리 시장의 무게중심을 HBM 바깥으로 넓히겠다는 구상을 드러냈다.SOCAMM2가 주목받는 이유는 HBM의 대체재여서가 아니라 HBM만으로 감당하기 어려운 영역을 겨냥했기 때문이다. 자료에 따르면 HBM은 초고대역폭을 제공하지만 용량·비용·발열 측면에서 부담이 있고, DDR5 RDIMM은 대용량 구성에는 유리하지만 대역폭과 전력 효율에서 상대적으로 한계가 있다. SK하이닉스는 이런 간극을 메우기 위해 모바일용 저전력 메모리인 LPDDR을 서버용 모듈로 재구성한 SOCAMM 계열을 내세웠다.SOCAMM은 기존 LPDDR처럼 기판에 직접 붙는 온보드 방식이 아니라 고밀도 실장을 유지하면서도 모듈 교체가 가능한 구조를 갖췄다. HBM보다는 시스템 메모리에 가깝지만, RDIMM보다 GPU·CPU에 더 가까운 위치에서 중간 계층 역할을 수행한다는 점이 특징이다. 회사는 향후 AI 서버 메모리 구조가 HBM, SOCAMM, DDR5 RDIMM, CXL 메모리로 이어지는 다층 구조로 발전할 수 있다고 설명했다.SK하이닉스는 이번 제품이 기존 RDIMM 대비 2배 이상의 대역폭과 75% 이상 개선된 에너지 효율을 구현했다고 밝혔다. 이는 단순히 속도 경쟁에 머무는 것이 아니라 전력과 냉각 부담이 커지는 AI 데이터센터 환경을 겨냥한 수치다. 특히 회사는 AI 시장이 학습 중심에서 추론 중심으로 전환되면서 저전력으로 대규모 언어모델을 구동할 수 있는 메모리 솔루션의 중요성이 커지고 있다고 강조했다.SOCAMM2의 확장성도 관심을 끄는 대목이다. SOCAMM2는 1세대 대비 속도와 전력, 폼팩터를 개선한 2세대 규격으로, DDR5 RDIMM 대비 전력 효율을 크게 낮추는 방향으로 설계됐다. 하이퍼스케일 데이터센터 입장에서는 단순 부품 성능보다 랙당 처리량과 전력비, 냉각비까지 포함한 총소유비용이 중요해지고 있다는 점에서 SOCAMM2가 현실적인 대안으로 부상할 가능성이 크다.SK하이닉스는 이번 양산을 통해 HBM 중심 리더십을 서버 메모리 전반으로 넓히겠다는 전략도 분명히 했다. 회사는 HBM, 서버용 DDR5, 저전력 LPDDR, CXL 메모리, SOCAMM으로 이어지는 포트폴리오를 기반으로 AI 메모리 리더십을 강화하겠다는 입장이다.김주선 SK하이닉스 AI 인프라 사장(CMO)은 “SOCAMM2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다”고 밝혔다.





