SK hynix가 10월에 HBM4 메모리를 테이프 아웃할 예정이며, 이는 NVIDIA의 차세대 루빈 AI 칩에 활용될 것입니다. HBM4는 이전 모델인 HBM3E에 비해 뛰어난 전력 효율성과 더 높은 대역폭을 제공하도록 설계되어, 고대역폭 메모리 개발에 중요한 이정표가 됩니다.
HBM4 메모리는 2048비트의 채널 폭을 특징으로 하며, 이는 HBM3E의 1024비트에 비해 두 배 증가한 수치로, 더 빠른 데이터 전송과 높은 성능에 필수적입니다. 또한, HBM4는 12개의 DRAM 다이에 비해 16개의 DRAM 다이를 쌓을 수 있어, 24Gb 및 32Gb 레이어를 지원합니다. 이로 인해 단일 스택에서 최대 64GB의 용량을 제공할 수 있으며, 이는 HBM3E의 32GB에서 증가한 것입니다.
SK hynix는 HBM4가 기존 HBM 메모리보다 20배에서 30배 더 높은 성능을 제공할 것이라고 주장하며, 다음 분기에 HBM4 메모리를 테이프 아웃할 계획인 삼성과의 경쟁이 치열해질 것으로 보입니다. 삼성은 HBM3E의 품질 검사에서 어려움을 겪었지만, SK hynix는 NVIDIA와 AMD에 HBM4 칩을 공급하기 위한 경쟁에서 앞서 있는 것으로 보이며, 내년 말까지 대량 생산이 예상됩니다.
이 개발은 AI 애플리케이션에서 고급 메모리 솔루션에 대한 수요가 증가하는 것과 일치하며, 특히 NVIDIA의 루빈 기반 AI 칩이 HBM4 메모리의 향상된 기능을 활용할 것으로 기대됩니다.
* 이 글은
wccftech.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.