SK hynix, CES에서 16층 HBM3E, 122TB 기업 SSD, LPCAMM23 등 공개 예정

전문: https://www.tomshardware.com/pc-components/dram/sk-hynix-to-showcas...

원저자: Kunal Khullar | 작성일: 2025-01-09 15:12
사이트 내 게시일: 2025-01-09 16:47
SK hynix는 라스베이거스에서 열리는 CES에서 인공지능(AI) 애플리케이션을 겨냥한 다양한 첨단 메모리 솔루션을 공개할 예정입니다. 이 회사는 이전 12층 버전을 기반으로 한 최신 16층 고대역폭 메모리(High Bandwidth Memory, HBM) 기술인 HBM3E를 선보일 것입니다. 이 새로운 기술은 고급 MR-MUF 공정을 활용하여 열 성능을 개선하고 칩 변형을 줄여 업계 최고의 결과를 달성합니다.

16층 HBM3E 제품은 스택당 48GB의 용량을 제공하여 AI 가속기가 8스택 구성에서 최대 384GB의 메모리를 활용할 수 있도록 합니다. 이 향상된 성능은 12층 버전 대비 AI 학습 성능을 최대 18%, 추론 성능을 최대 32%까지 향상시킬 것으로 예상됩니다. 그러나 HBM3E의 수명은 제한적일 수 있으며, 엔비디아의 차세대 루빈(Rubin) 칩이 HBM4를 사용할 것으로 예상되어 내년에 대량 생산에 들어갈 예정입니다.

메모리 솔루션 외에도 SK hynix는 자회사 Solidigm이 개발한 122TB 'D5-P5336' 기업 SSD를 소개할 것입니다. 이 SSD는 해당 카테고리에서 가장 높은 용량을 자랑하며, AI 데이터 센터의 데이터 저장을 위한 새로운 기준을 설정합니다. 또한, 데이터 센터 인프라의 차세대 기술인 컴퓨트 익스프레스 링크(Compute Express Link, CXL)와 프로세싱 인 메모리(Processing-In-Memory, PIM) 기술에 대해서도 논의할 예정입니다. CMM-Ax와 AiMX 모듈화 솔루션이 강조될 것이며, CMM-Ax는 CXL 확장성과 계산 능력을 결합하여 서버 플랫폼의 성능과 에너지 효율성을 향상시킵니다.

또한, SK hynix는 PC와 스마트폰과 같은 엣지 디바이스에서 데이터 처리 속도와 전력 효율성을 개선하기 위해 설계된 'LPCAMM23'와 'ZUFS 4.04'를 선보일 계획입니다. 이러한 혁신은 소비자 전자 제품에 AI 기능을 직접 통합하여 AI 기술의 잠재적 응용 분야를 확장하는 것을 목표로 하고 있습니다. 이 회사는 PCIe 6.0 SSD, AI 서버를 위한 고용량 QLC eSSD, 모바일 기기를 위한 UFS 5.0을 개발하고 있으며, LPCAMM2 모듈 및 노트북과 핸드헬드 콘솔을 위한 솔더드 LPDDR5/6 메모리 작업도 진행 중입니다.

* 이 글은 tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은 이곳에서 확인하실 수 있습니다.
카테고리: Memory
태그: Nvidia (1070) SK hynix (77) AI technology (73) data storage (55) HBM3E (35) CES 2024 (30) CXL (23) Enterprise SSD (4) PIM (2) LPCAMM (2)

댓글

댓글을 쓰기 위해서는 로그인을 해 주세요.