엔비디아, 1.6 TB/s 대역폭을 갖춘 HBM4 칩의 조기 채택 목표

전문: https://www.computerbase.de/news/arbeitsspeicher/anfrage-bei-skhyni...

원저자: Jan-Frederik Timm | 작성일: 2024-11-04 14:47
사이트 내 게시일: 2024-11-04 15:18
엔비디아는 SK Hynix의 기존 일정보다 6개월 빠르게 HBM4 메모리를 활용할 계획을 세우고 있으며, 이는 SK그룹 회장 최태원의 확인을 통해 밝혀졌습니다. 이 가속화된 일정의 가능성은 아직 불확실합니다.

HBM4(고대역폭 메모리 4)는 HBM3에 비해 메모리 채널 수가 두 배로 증가하여 16개에서 32개로 늘어납니다. 이로 인해 인터페이스 폭은 2,048비트로 확장됩니다. 핀당 목표 데이터 전송 속도는 초기에는 HBM3와 동일한 6.4 Gbit/s로 설정되지만, 향상된 인터페이스는 스택당 약 1.6 TB/s의 처리량을 효과적으로 두 배로 증가시킵니다. 이는 1,024비트 인터페이스와 9.6 Gbit/s로 작동하는 HBM3E의 1.2 TB/s 처리량을 초과합니다.

또한, HBM4는 4, 8, 12 또는 16층의 DRAM 스택을 지원합니다. 24-Gbit 다이(3 GB)를 사용할 경우 스택당 최대 48 GB를 지원하며, 새로운 32-Gbit 다이(4 GB)는 스택당 최대 64 GB를 달성할 수 있습니다. 이전에 HBM3e는 12층 스택당 36 GB로 제한되었으나, SK Hynix는 최근 16층으로 48 GB 칩을 발표했습니다.

SK Hynix, Micron, Samsung과 같은 제조업체들은 처음에 2025년 하반기를 HBM4 칩의 대량 생산 시작 목표로 설정했으며, 2026년 초에는 상당한 양이 예상됩니다.

엔비디아는 다가오는 아키텍처 'Rubin'과 함께 HBM4를 공개할 것으로 예상되며, 이는 2024년 6월 컴퓨텍스에서 발표될 예정입니다. 이 아키텍처는 2025년 Blackwell 리프레시, 즉 'Blackwell Ultra' 이후에 등장할 것입니다. 엔비디아가 이 일정을 앞당겼는지, 아니면 새로운 기술의 더 높은 물량 확보에 집중하고 있는지는 아직 불확실합니다.

* 이 글은 computerbase.de의 기사를 요약한 것입니다. 전체 기사의 내용은 이곳에서 확인하실 수 있습니다.
카테고리: GPU
태그: Nvidia (1154) memory technology (70) DRAM (40) HBM4 (15) Blackwell Ultra (6) data throughput (4) Rubin (3) computing architecture (2) SKHynix (1)

댓글

댓글을 쓰기 위해서는 로그인을 해 주세요.