SK hynix가 9월 말까지 12층 HBM3E 메모리의 양산을 시작할 예정이며, 차세대 AI 시장을 겨냥하고 있습니다. 이 새로운 메모리 표준은 AI 가속기에서 중요한 구성 요소인 HBM이 AI 컴퓨팅 능력을 크게 향상시킬 것으로 기대됩니다. 현재 업계에서는 NVIDIA의 Blackwell 아키텍처에서 볼 수 있듯이 주로 8층 HBM3E가 사용되고 있습니다. 그러나 12층 HBM3E는 8층 변종의 24GB에 비해 스택당 36GB의 용량을 포함한 우수한 사양을 제공합니다.
12층 HBM3E는 또한 데이터 전송 효율성을 개선하고 신호 손실을 줄이는 실리콘 관통 기술(Through-Silicon Via, TSV)을 통합하고 있습니다. 아직 시장에서 공식적으로 채택되지는 않았지만, NVIDIA가 향후 Hopper 및 Blackwell AI GPU의 차기 버전에서 이 고급 메모리를 사용할 가능성이 있다는 징후가 있습니다. SK hynix는 HBM 분야의 선두주자로 인정받고 있으며, AI 애플리케이션의 증가하는 수요에 힘입어 생산 라인이 2025년까지 예약된 상태입니다.
앞으로 SK hynix는 내년에 HBM4 모듈을 도입할 계획이며, 2026년까지 양산이 예상됩니다. HBM4는 메모리와 논리 반도체를 단일 패키지로 통합하여 전통적인 패키징 기술의 필요성을 없애면서 시장에 혁신을 가져올 것으로 기대됩니다. 이 혁신은 SK hynix를 삼성 및 Micron과 같은 경쟁업체보다 앞서게 하며, HBM 시장은 향후 몇 분기 동안 빠른 진화를 예고하고 있습니다.
* 이 글은
wccftech.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.