NVIDIA의 Blackwell 플랫폼은 핫 칩스 2024에서 중심적인 주제로 다루어지며, 2025년 AI 인프라를 혁신할 잠재력을 보여주었습니다. 이 플랫폼은 개별 GPU보다는 클러스터 수준의 아키텍처를 강조하며, 대규모 AI 운영의 트렌드와 일치합니다. NVIDIA는 하드웨어와 소프트웨어를 통합하여 성능 향상을 위한 라이브러리를 최적화하고 있습니다. Blackwell 플랫폼은 CPU 및 GPU 컴퓨팅에서 상호 연결 네트워크에 이르기까지 포괄적인 범위를 포함하여 데이터 센터 아키텍처에 대한 전체론적 접근을 나타냅니다.
주요 특징으로는 Grace CPU와의 NVLink-C2C 연결이 있으며, 이는 GPU 다이 간에 놀라운 10TB/s의 대역폭을 제공합니다. GB200 슈퍼칩은 Grace CPU와 두 개의 Blackwell GPU를 결합하여 컴퓨팅 성능을 극대화하는 구성을 가능하게 합니다. NVIDIA는 FP4 및 FP6 정밀도 포맷을 새롭게 도입하여, 컴퓨팅 및 저장 요구 사항을 줄임으로써 성능을 향상시킵니다. Quasar Quantization 기술은 낮은 정밀도 사용의 기회를 식별하여 성능을 유지하면서 자원 소비를 최적화합니다.
NVIDIA의 NVLink 기술은 크게 발전하여 최신 세대에서 최대 72개의 GPU를 지원하며, 시스템 간 데이터 전송을 효율적으로 관리하도록 설계되었습니다. GB200 NVL72 및 NVL36 구성은 다양한 데이터 센터 전력 용량에 맞춰 제공되며, NVL72는 조단위 매개변수 AI 모델을 목표로 합니다. 로드맵은 향후 네트워킹 수요를 수용하기 위해 PCIe Gen7로의 전환을 나타내며, NVIDIA의 미래 지향적인 접근 방식을 강조합니다.
전반적으로 NVIDIA의 Blackwell 플랫폼에서의 발전은 현재 AI 모델 요구 사항을 충족할 뿐만 아니라 미래의 필요를 예측하려는 의지를 반영하며, AI 가속기 분야에서 경쟁자들과 차별화되고 있습니다. 최적화된 상호 연결 및 스위치 칩의 통합은 경쟁 우위를 더욱 강화하여 NVIDIA를 AI 인프라 개발의 선두주자로 자리매김하게 합니다.
* 이 글은
servethehome.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.