NVIDIA는 블랙웰(Blackwell) AI 플랫폼을 공개하며, 두 개의 GPU를 결합할 수 있는 새로운 고대역폭 인터페이스인 NV-HBI를 선보였습니다. 블랙웰(Blackwell) 아키텍처는 5세대 텐서 코어와 NVLINK 기술을 포함한 중요한 발전을 특징으로 하며, 다양한 애플리케이션에서 AI 성능을 향상시키는 것을 목표로 하고 있습니다.
블랙웰(Blackwell) GPU는 2080억 개의 트랜지스터로 구성되어 있으며, TSMC의 4NP 공정으로 제작되었고, 면적은 1600mm²를 초과합니다. 이 GPU는 20 페타플롭스(PetaFLOPS)의 FP4 AI 성능, 8 TB/s의 메모리 대역폭, 1.8 TB/s의 양방향 NVLINK 대역폭을 제공합니다. NV-HBI 인터페이스는 다이(die) 간 연결을 위한 인상적인 10 TB/s 대역폭을 제공하여 GPU 간의 효율적인 통신을 보장합니다.
NVIDIA의 다중 다이(die) 아키텍처는 앰페어(Ampere) 세대에서 시작되어 블랙웰(Blackwell)로 발전하였으며, 성능 향상을 위해 2다이(die) 구현을 활용합니다. 5세대 텐서 코어는 새로운 마이크로 텐서 형식(FP4, FP6, FP8)을 도입하여 이전 형식에 비해 최대 4배의 속도 향상을 달성하며, AI 처리 능력을 크게 향상시킵니다.
블랙웰(Blackwell) 플랫폼은 400개 이상의 최적화된 CUDA-X 라이브러리를 통합하여 다양한 AI 애플리케이션에서 최대 성능을 보장합니다. 5세대 NVLINK 기술은 최대 576개의 GPU를 연결하여 생성적 AI 작업에 필수적인 높은 처리량과 낮은 지연 통신을 가능하게 합니다.
NVIDIA의 GB200 NVL72 시스템은 이 아키텍처의 예로, 72개의 블랙웰(Blackwell) GPU와 36개의 그레이스(Grace) CPU를 연결하여 최대 720 페타플롭스(PetaFLOPS)의 훈련 성능과 1440 페타플롭스(PetaFLOPS)의 추론 성능을 달성합니다. AI를 위해 설계된 Spectrum-X 이더넷 패브릭은 Spectrum-4와 블루필드-3(Bluefield-3) 칩을 결합하여 클라우드 AI 작업을 위한 강력한 인프라를 제공합니다.
전반적으로 블랙웰(Blackwell) AI 플랫폼은 이전 세대인 호퍼(Hopper)에 비해 실시간 추론 성능을 30배 향상시키고 에너지 효율성을 25배 개선할 것을 약속합니다. NVIDIA는 다가오는 블랙웰(Blackwell) 울트라(Blackwell Ultra) 및 미래 아키텍처로 이 생태계를 더욱 발전시킬 계획을 세우고 있으며, AI 기술 발전에 대한 강한 의지를 나타내고 있습니다.
* 이 글은
wccftech.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.