SK AI 서밋 2024에서 SK hynix는 세계 최초의 16-Hi HBM3E 메모리를 공개하며, 스택당 48GB의 용량을 달성했다고 발표했습니다. 이는 이전 모델에 비해 상당한 발전을 이룬 것입니다. 이 새로운 메모리는 AI 가속기가 8스택 구성에서 최대 384GB의 HBM3E 메모리를 활용할 수 있게 하여 AI 애플리케이션의 성능을 향상시킵니다.
16-Hi HBM3E 메모리는 12-Hi 모델에 비해 훈련 성능이 18% 향상되었고, 추론 성능은 32% 증가했습니다. 이 메모리는 칩을 녹인 납땜으로 연결하는 MR-MUF와 같은 고급 패키징 기술을 활용하여 효율성과 안정성을 높였습니다. 이 새로운 메모리 샘플은 2025년 초에 제공될 예정입니다.
HBM3E 메모리 외에도 SK hynix는 AI 서버를 겨냥한 차세대 PCIe 6.0 SSD와 고용량 QLC eSSD, 모바일 기기를 위한 UFS 5.0도 개발하고 있습니다. 또한, 1cnm 노드 기술을 사용하여 LPCAMM2 모듈과 납땜된 LPDDR5/6 메모리도 작업 중이지만, 데스크탑용 CAMM2 모듈에 대한 즉각적인 계획은 없습니다.
증가하는 메모리 수요에 대응하기 위해 SK hynix는 메모리 내에서 데이터를 처리하는 Processing Near Memory (PNM), Processing in Memory (PIM), Computational Storage와 같은 혁신적인 솔루션을 탐색하고 있습니다. 이러한 기술은 데이터 이동을 줄이는 것을 목표로 하고 있습니다.
앞으로 HBM4는 채널 폭을 1024비트에서 2048비트로 두 배로 늘리고, 각각 4GB 용량의 DRAM 다이를 최대 16개 수직으로 쌓을 수 있도록 지원할 예정입니다. 이는 미래 AI GPU의 높은 수요를 충족할 수 있는 메모리 기술의 중요한 도약을 의미합니다. 삼성도 HBM4 개발을 진행 중이지만, SK hynix는 이미 테이프 아웃 단계를 완료했으며, 내년 1분기 또는 2분기에는 Nvidia와 AMD를 위한 검증 샘플이 예상됩니다.
* 이 글은
tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.