마이크론, 차세대 AI GPU를 위한 생산 준비 완료 12-Hi HBM3E 칩 출하 — 스택당 최대 36GB, 속도는 9.2 GT/s를 초과

전문: https://www.tomshardware.com/pc-components/gpus/micron-ships-produc...

원저자: Anton Shilov | 작성일: 2024-09-09 18:19
사이트 내 게시일: 2024-09-09 18:50
마이크론이 공식적으로 12-Hi HBM3E 메모리 스택의 출시를 발표했습니다. 이 새로운 메모리 스택은 36GB의 용량을 제공하며, 이전 8-Hi 버전의 24GB에 비해 50% 증가한 용량입니다. 향상된 용량은 Nvidia의 H200 및 B100/B200 GPU를 포함한 AI 및 고성능 컴퓨팅(HPC) 작업을 지원하기 위해 설계되었습니다. 증가된 메모리 용량 덕분에 데이터 센터는 Llama 2와 같은 더 큰 AI 모델을 단일 프로세서에서 처리할 수 있으며, 이 모델은 최대 700억 개의 매개변수를 가질 수 있습니다. 이러한 기능은 CPU 오프로드의 필요성을 줄이고 GPU 간의 통신 지연을 최소화하여 데이터 처리 속도를 가속화합니다.

성능 측면에서 마이크론의 12-Hi HBM3E 스택은 1.2TB/s 이상의 메모리 대역폭을 제공하며, 데이터 전송 속도는 9.2Gb/s를 초과합니다. 특히, 경쟁사에 비해 50% 더 높은 메모리 용량에도 불구하고, 마이크론의 HBM3E는 이전 8-Hi HBM3E 스택보다 전력 소비가 적도록 설계되었습니다. 또한, 새로운 메모리 스택에는 완전 프로그래머블 메모리 내장 자가 테스트(MBIST) 시스템이 포함되어 있어, 고객이 새로운 시스템을 전속력으로 종합적으로 테스트하고 검증할 수 있도록 하여 시장 출시 시간을 단축하고 신뢰성을 높입니다.

마이크론의 HBM3E 메모리 장치는 TSMC의 칩-온-웨이퍼-온-서브스트레이트(CoWoS) 패키징 기술과 호환되며, 이는 Nvidia의 H100 및 H200과 같은 AI 프로세서에 일반적으로 사용됩니다. 이 협력은 AI 혁신을 지원하기 위한 마이크론과 TSMC 간의 장기 전략적 파트너십을 강조합니다. 현재 마이크론은 AI 생태계 전반에 걸쳐 자격 테스트를 위해 주요 산업 파트너에게 생산 준비 완료된 12-Hi HBM3E 유닛을 출하하고 있습니다. 또한, 마이크론은 Nvidia의 블랙웰(Blackwell) 및 루빈(Rubin) 아키텍처를 기반으로 한 AI 프로세서의 증가하는 요구를 충족하기 위해 메모리 성능을 더욱 향상시킬 HBM4 및 HBM4E와 같은 차세대 메모리 솔루션 개발에도 이미 착수했습니다.

* 이 글은 tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은 이곳에서 확인하실 수 있습니다.
카테고리: Memory
태그: Nvidia (852) AI (638) TSMC (225) high-performance computing (132) memory technology (67) Micron (53) HBM3E (31) Data Processing (20) chip packaging (7)

댓글

댓글을 쓰기 위해서는 로그인을 해 주세요.