키옥시아, 엔비디아와 협력하여 기존 SSD보다 3배 빠른 XL-Flash SSD 개발 — 1,000만 IOPS 드라이브는 AI 서버를 위한 피어 투 피어 GPU 연결 지원

전문: https://www.tomshardware.com/pc-components/ssds/kioxia-works-with-n...

원저자: | 작성일: 2025-06-07 12:11
사이트 내 게시일: 2025-06-07 22:38
키옥시아는 작은 블록 작업에서 1초당 1,000만 개의 입출력 작업(IOPS)을 초과하는 혁신적인 SSD를 개발하고 있으며, 이는 현재의 많은 SSD보다 3배 빠릅니다. 이 계획은 키옥시아의 기업 전략 회의에서 발표되었으며, AI 서버 환경에서 성능을 향상시키기 위해 엔비디아와 협력하고 있습니다.

새로운 SSD는 AI 서버에서 저장소와 GPU 간의 데이터 전송이 현재 CPU에 의해 관리되어 발생하는 주요 병목 현상을 해결합니다. 키옥시아의 설계에는 IOPS를 최적화하기 위한 특수 컨트롤러가 포함되어 있으며, 512바이트 IOPS에서 1,000만 개 이상의 성능을 목표로 하여 GPU가 데이터를 신속하게 접근할 수 있도록 하여 전체 코어 활용도를 유지합니다.

키옥시아의 단일 레벨 셀(SLC) XL-Flash 메모리를 활용한 이 SSD는 3~5 마이크로초의 읽기 지연 시간을 약속하며, 이는 기존 3D NAND SSD의 40~100 마이크로초에 비해 상당한 개선입니다. SLC 기술은 셀당 1비트를 저장하여 접근 시간과 내구성을 향상시켜, 요구가 높은 AI 작업에 적합합니다.

현재 고급 데이터 센터 SSD는 4K 및 512바이트 랜덤 읽기 작업에서 200만에서 300만 IOPS를 달성하고 있습니다. 그러나 대형 언어 모델(LLM) 및 검색 증강 생성(RAG) 시스템과 같은 애플리케이션에서는 작은 랜덤 접근이 더 일반적이므로 512바이트 블록이 이러한 작업에 더 적합합니다. 이 접근 방식은 지연 요구 사항을 충족할 뿐만 아니라 메모리 접근 효율성을 최적화합니다.

키옥시아는 'AI SSD'의 특정 호스트 인터페이스를 공개하지 않았지만, PCIe 6.0 인터페이스를 필요로 하지 않을 것으로 예상됩니다. 이 SSD는 또한 CPU를 우회하여 지연 시간을 줄이고 성능을 향상시키기 위해 GPU와 SSD 간의 피어 투 피어 통신을 지원합니다. 이 설계는 일반적으로 더 작은 캐시 라인에서 작동하는 GPU 아키텍처와 일치하여 512바이트 읽기를 더 효율적으로 만듭니다.

키옥시아의 'AI SSD'는 대규모 데이터 세트에 대한 빠른 접근이 필요한 AI 훈련 설정을 위해 설계되었으며, 검색 증강 생성 기술을 활용하는 AI 추론 애플리케이션에도 적합할 것으로 예상됩니다. 이 SSD는 2026년 하반기에 출시될 예정이며, GPU 제조업체인 엔비디아와의 파트너십을 통해 개발되고 있습니다.

* 이 글은 tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은 이곳에서 확인하실 수 있습니다.
카테고리: Storage
태그: Nvidia (2083) AI (1285) GPU (406) SSD (351) data transfer (60) Kioxia (48) latency (18) XL-Flash (4) IOPS (3)

댓글

댓글을 쓰기 위해서는 로그인을 해 주세요.