NVIDIA가 블랙웰 울트라 시리즈를 공개하며 B300 칩을 선보였습니다. 이 칩은 이전 블랙웰 모델에 비해 상당한 성능 향상을 약속합니다. B300 아키텍처는 성능이 50% 증가하며, 최대 288GB의 HBM3e 메모리를 12개의 Hi 스택으로 활용하여 메모리 용량과 대역폭을 크게 향상시킵니다. 이러한 업그레이드는 더 큰 데이터 세트를 처리해야 하는 인공지능 모델의 증가하는 요구를 충족하는 데 필수적입니다.
새로운 스펙트럼 울트라 X800 이더넷 스위치는 512 라디스를 갖추고 있어 GPU 클러스터 간의 통신 효율성을 개선하고 AI 데이터 센터의 확장을 최적화합니다. GB300 NVL72 플랫폼은 72개의 블랙웰 울트라 GPU와 36개의 NVIDIA 그레이스 CPU를 통합하여 단일 대규모 GPU 클러스터로 작동하며, 이는 인공지능 모델의 추론 최적화에 특히 유리합니다. 이 시스템은 NVIDIA DGX 클라우드를 통해 제공될 예정이며, NVIDIA의 확장 가능한 AI 인프라 제공자로서의 입지를 강화합니다.
또한, B300 HGX NVL16 변형은 대형 언어 모델(LLM)에서 향상된 추론 성능을 위해 설계되었으며, 이전 호퍼 세대에 비해 11배 빠른 추론 속도와 7배 더 많은 컴퓨팅 파워, 4배 더 많은 메모리를 제공합니다. 이러한 발전은 인공지능 추론 애플리케이션에 상당한 혜택을 줄 것으로 예상되며, 모델이 복잡한 쿼리를 효율적으로 처리할 수 있도록 합니다.
NVIDIA의 블랙웰 울트라 시리즈에 대한 전략은 성능과 확장성을 강조하며 AI 가속기 시장에서의 지배력을 확고히 하고 있습니다. 메모리 대역폭과 네트워크 아키텍처에 대한 회사의 대규모 투자는 대규모 AI 인프라에 대한 집중을 나타내며, 경쟁자들이 이러한 혁신을 따라잡기 어렵게 만듭니다. 기존 소프트웨어 스택과 클라우드 제공으로 강화된 NVIDIA의 시장력은 2025년 이후에도 AI 가속기 시장에서의 강력한 입지를 유지할 가능성이 높습니다.
* 이 글은
igorslab.de의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.