마벨(Marvell)은 2024년 애널리스트 데이에서 AI 애플리케이션을 위한 맞춤형 고대역폭 메모리(Custom High-Bandwidth Memory, CHBM) 솔루션을 발표했습니다. 이 개발은 주요 메모리 제조업체와의 협력을 통해 특정 XPU 설계를 위한 성능, 전력, 메모리 용량, 다이 크기 및 비용 최적화에 중점을 두고 있습니다. 특히, CHBM은 초기에는 JEDEC에서 정의한 HBM 표준을 준수하지 않아 더 큰 맞춤화가 가능합니다.
CHBM 솔루션은 마벨이 특정 애플리케이션에 맞춰 인터페이스와 메모리 스택을 조정할 수 있게 하여, 표준 HBM 인터페이스가 프로세서 내에서 차지하는 물리적 공간을 줄이는 것을 목표로 합니다. 이러한 최적화는 추가적인 컴퓨트 기능을 위한 공간을 확보할 수 있습니다. 마벨의 독자적인 다이 투 다이(DIE-to-DIE) I/O 기술은 맞춤형 XPU에 최대 25% 더 많은 논리 통합을 가능하게 하고, 컴퓨트 칩렛 옆에 33% 더 많은 CHBM 메모리 패키지를 수용할 수 있어 프로세서의 가용 DRAM을 증가시킬 것으로 기대됩니다. 또한, 마벨은 메모리 인터페이스의 전력 소비가 최대 70% 감소할 것으로 예상하고 있습니다.
CHBM이 JEDEC 표준을 준수하지 않기 때문에 새로운 컨트롤러, 맞춤형 물리적 인터페이스 및 개편된 HBM 기본 다이의 개발이 필요합니다. 새로운 다이 투 다이 HBM 인터페이스는 20 Tbps/mm(2.5 TB/s per mm)의 대역폭을 달성할 것으로 예상되며, 이는 현재 HBM의 대역폭인 5 Tbps/mm(625 GB/s per mm)를 크게 초과하는 수치입니다. 마벨은 또한 향후 발전을 통해 50 Tbps/mm(6.25 TB/s per mm)의 대역폭을 가진 버퍼리스 메모리로 나아갈 것으로 구상하고 있습니다.
마벨은 CHBM 인터페이스의 구체적인 너비를 공개하지 않았지만, 기존 HBM3E 또는 HBM4 솔루션보다 좁을 것이라고 제안하며, 이는 추가적인 맞춤화를 가능하게 합니다. 마벨의 수석 부사장인 윌 추(Will Chu)는 이 이니셔티브가 AI 가속기의 설계 및 제공 방식의 전환을 나타내며, 성공적인 구현을 위해 마이크론(Micron), 삼성(Samsung), SK 하이닉스(SK hynix)와 협력하고 있다고 강조했습니다.
* 이 글은
tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.