마이크로소프트 애저는 엔비디아의 Blackwell 시스템을 운영하는 최초의 클라우드 서비스 제공업체임을 발표했습니다. 이 시스템은 GB200 기반의 AI 서버를 특징으로 하며, 기업들이 점점 더 복잡한 대형 언어 모델(LLM)을 훈련시키고자 하는 요구에 부응하는 개발입니다. 마이크로소프트는 Blackwell 서버의 운영 상태를 확인했으며, 이 서버는 32개의 B200 프로세서를 수용할 가능성이 있는 맞춤형 랙을 포함하고 있지만, 정확한 수치는 명시되지 않았습니다. 이 서버는 약 120 kW의 전력 소비를 관리하는 데 필수적인 정교한 액체 냉각 시스템을 활용합니다.
B200 GPU는 이전 모델인 H100보다 성능이 2.5배 향상되어 FP8/INT8 작업에서 4,500 TFLOPS/TOPS를 달성하며, H100의 1,980 TOPS와 비교됩니다. 또한, FP4 데이터 형식을 사용하면 B200은 최대 9 PFLOPS를 제공하여 고급 LLM의 훈련을 촉진하고 AI 기능을 확장할 수 있습니다. 마이크로소프트는 테스트 후 상업적 작업을 위해 이러한 Blackwell 기반 서버를 배포할 계획이며, 2024년 11월에 열리는 MS Ignite 컨퍼런스에서 추가 세부 사항이 발표될 예정입니다. 이 엔비디아와의 파트너십은 AI 혁신 및 인프라에서 선도적인 역할을 하겠다는 마이크로소프트의 의지를 강조합니다.
* 이 글은
tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.