램버스(Rambus)는 차세대 HBM4 메모리 컨트롤러를 소개하며, 기존 HBM3 및 HBM3E 솔루션에 비해 상당한 개선을 약속하고 있습니다. HBM4 메모리 솔루션은 주로 AI 및 데이터 센터 시장을 위해 설계되었으며, 현재 HBM DRAM 설계의 성능을 향상시키는 것을 목표로 하고 있습니다.
HBM4 메모리 컨트롤러는 핀당 최대 10 Gb/s의 속도를 지원하며, 초기 HBM3 세대를 초월하고 HBM3E 솔루션보다 더 많은 대역폭을 제공합니다. HBM4의 시작 대역폭은 2.56 TB/s로, HBM3E에 비해 33% 증가했으며 HBM3의 두 배에 해당합니다. 비교하자면, HBM3E는 최대 9.6 Gb/s의 속도로 작동하며 스택당 최대 1.229 TB/s의 대역폭을 제공합니다.
HBM4의 주요 기능으로는 ECC(오류 정정 코드), 읽기-수정-쓰기(Read-Modify-Write, RMW), 오류 스크러빙(Error Scrubbing)이 있습니다. HBM4의 모든 기능이 즉시 실현되지는 않겠지만, 수율이 개선됨에 따라 이 기술은 향후 애플리케이션에서 메모리 성능을 크게 향상시킬 것으로 기대됩니다.
현재 SK Hynix는 12층 HBM3E 메모리를 대량 생산 중이며, HBM4 메모리는 곧 테이프 아웃(tape out)될 것으로 예상됩니다. Samsung은 2025년 말까지 HBM4의 대량 생산을 시작할 것으로 보입니다. 특히, NVIDIA의 차세대 Rubin GPU는 2026년에 출시될 예정이며 HBM4 메모리를 처음으로 지원할 것입니다. AMD의 Instinct MI400도 이 차세대 설계를 활용할 것으로 예상되지만, 확인은 아직 이루어지지 않았습니다.
이 기사는 HBM 메모리 사양에 대한 비교 개요를 제공하며, 다양한 HBM 세대 간의 최대 대역폭, 용량 및 기타 기술적 매개변수의 진화를 강조하여 HBM4가 가져오는 발전을 보여줍니다.
* 이 글은
wccftech.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.