마이크론 HBM3E 12층 36GB 고용량 AI 가속기 출하

전문: https://www.servethehome.com/micron-hbm3e-12-high-36gb-higher-capac...

원저자: Cliff Robinson | 작성일: 2024-09-05 21:14
사이트 내 게시일: 2024-09-05 21:19
마이크론이 12층 스택으로 구성된 새로운 HBM3E 메모리의 출하를 발표했습니다. 이 메모리는 패키지당 용량이 24GB에서 36GB로 크게 증가하는 성능 향상을 제공합니다. 이러한 발전은 AI 산업에 특히 중요한데, 이는 더 높은 성능과 용량의 가속기를 가능하게 합니다. 12층 스택 구성은 실리콘 관통(Via, TSV)을 활용하여 컴팩트한 HBM3E 큐브를 형성하며, 일반적으로 고성능 인터커넥트를 통해 GPU와 연결됩니다.

새로운 HBM3E 메모리는 핀 속도가 9.2Gbps이고 메모리 대역폭이 1.2TB/s로, 이전 세대에 비해 성능이 향상되었습니다. 그러나 이 새로운 메모리를 AMD의 MI300X와 같은 기존 아키텍처에 통합하려면 패키지 높이에 대한 신중한 고려가 필요하며, 이는 NVIDIA의 P100/V100과 같은 이전 모델에서 GPU 균열과 같은 잠재적인 문제를 피하기 위한 것입니다.

36GB HBM3E는 주로 고급 칩에서 사용될 것으로 예상되며, NVIDIA와 AMD와 같은 주요 AI 공급업체는 대량 구매와 프리미엄 가격 지불 능력 덕분에 우선 접근할 가능성이 높습니다. 이러한 추세는 마이크로소프트의 MAIA 100 AI 가속기와 같은 다른 제품들이 HBM2E와 같은 저비용 대안을 선택하게 만들 수 있습니다. 36GB HBM3E의 도입은 향후 AI 가속기의 성능에 상당한 영향을 미칠 것으로 예상되지만, 시장에서 광범위한 채택이 이루어지기까지는 시간이 걸릴 수 있습니다.

* 이 글은 servethehome.com의 기사를 요약한 것입니다. 전체 기사의 내용은 이곳에서 확인하실 수 있습니다.
카테고리: Memory
태그: AMD (1335) Nvidia (852) GPU (210) high-performance computing (132) Micron (53) HBM3E (31) AI accelerators (24) memory bandwidth (15) Through-Silicon Vias (1)

댓글

댓글을 쓰기 위해서는 로그인을 해 주세요.