램버스(Rambus)는 AI 애플리케이션에서 고성능 GPU에 대한 증가하는 수요를 충족하기 위해 설계된 HBM4 메모리 컨트롤러 IP를 소개했습니다. JEDEC의 HBM4 사양은 아직 최종화되지 않았지만, 고급 메모리 기술에 대한 필요는 시급합니다. 램버스 HBM4 컨트롤러는 JEDEC에서 규정한 데이터 전송 속도인 6.4 GT/s를 지원하며, 최대 10 GT/s에 도달할 수 있는 잠재력을 가지고 있어, 2048비트 메모리 인터페이스를 활용할 경우 HBM4 메모리 스택당 2.56 TB/s의 메모리 대역폭을 제공합니다.
이 컨트롤러는 타사 또는 고객 제공 PHY 솔루션과 통합할 수 있어 완전한 HBM4 메모리 시스템을 구성할 수 있습니다. 램버스는 기존 메모리 생태계에 원활하게 통합하기 위해 카덴스(Cadence), 삼성(Samsung), 지멘스(Siemens)와 같은 업계 선두주자들과 협력하고 있습니다.
초기 JEDEC HBM4 사양에 따르면, 메모리는 4-high, 8-high, 12-high, 16-high 스택 구성으로 제공되며, 메모리 레이어는 24 Gb 및 32 Gb로 구성됩니다. 32 Gb 레이어를 가진 16-high 스택은 총 64 GB의 용량을 제공할 수 있으며, 네 개의 메모리 모듈을 갖춘 시스템은 최대 256 GB의 메모리를 달성할 수 있습니다. 이 구성은 8,192비트 인터페이스를 통해 최대 6.56 TB/s의 피크 대역폭을 제공하여, 높은 성능을 요구하는 작업 부하에 대한 성능을 크게 향상시킵니다.
HBM4 메모리 서브시스템이 10 GT/s로 작동할 경우, 네 개의 스택은 10 TB/s 이상의 대역폭을 제공할 수 있습니다. JEDEC 사양을 초과하는 향상된 속도 지원은 표준 속도에서 안정적이고 전력 효율적인 작동을 보장하기 위한 것입니다. 램버스의 니라즈 팔리왈(Neeraj Paliwal)은 AI 훈련 및 추론의 성능 요구 사항을 충족하기 위해 메모리 대역폭 및 용량 병목 현상을 극복해야 할 필요성이 크다고 강조했습니다. 특히 대형 언어 모델(LLM)의 복잡성이 증가함에 따라 더욱 그러합니다.
HBM4는 HBM3에 비해 스택당 채널 수가 두 배로 증가하여 2048비트 인터페이스 폭으로 인해 더 큰 물리적 공간이 필요합니다. 또한 HBM4의 인터포저는 HBM3/HBM3E에서 사용된 것과 다르며, 데이터 전송 속도 능력에 영향을 미칩니다.
* 이 글은
tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.