MLPerf Training 5.0: 엔비디아, GB200 NVL72로 기준을 설정하다

전문: https://www.computerbase.de/news/pc-systeme/mlperf-training-5-0-nvi...

원저자: Nicolas La Rocco | 작성일: 2025-06-04 15:00
사이트 내 게시일: 2025-06-04 22:40
2018년 시작 이후 열두 번째 MLPerf Training 벤치마크에서 엔비디아는 576개의 블랙웰 GPU를 탑재한 엔비디아 DGX GB200 슈퍼포드(SuperPOD)를 통해 리더로 떠올랐으며, 이는 인상적인 11.5 엑사플롭스(ExaFLOPS)의 성능을 자랑합니다. 이번 라운드는 4050억 개의 매개변수를 가진 Llama 3.1 405B의 LLM(대형 언어 모델) 사전 훈련을 포함한 다양한 AI 모델의 훈련에 초점을 맞췄으며, 이는 1750억 개의 매개변수를 가진 이전의 GPT-3 모델을 초월합니다.

엔비디아는 다섯 개의 벤치마크에서 새로운 기록을 세우며, 이전의 호퍼(Hopper) 아키텍처에 비해 상당한 성능 향상을 보여주었습니다. 이 회사는 MLPerf Training 5.0 벤치마크 전반에 걸쳐 결과를 제출한 유일한 참가자로, 해당 분야에서의 지배력을 강조했습니다. GB200 NVL72는 Llama 3.1 405B 사전 훈련을 단 21분 만에 완료했으며, 이는 호퍼 세대의 512 H100 GPU를 탑재한 시스템보다 120% 빠른 성능을 보여줍니다.

또한, 엔비디아는 8개의 블랙웰 GPU를 사용하여 Llama 2 70B LoRA의 미세 조정에서 8개의 H100 GPU에 비해 150%의 성능 향상을 보고했으며, 스테이블 디퓨전(Stable Diffusion) v2 텍스트-이미지 모델에서는 160%의 개선을 달성했습니다. 이 회사는 다양한 모델에서 달러당 30%에서 55% 더 많은 성능을 제공하는 비용 효율성도 강조했으며, 스테이블 디퓨전 v2에서 가장 높은 성과를 보였습니다.

엔비디아는 512개에서 2,496개 GPU로의 확장에서 놀라운 90%의 확장 효율성을 입증하며, NVLink 및 이더넷 솔루션의 장점을 보여주었습니다. 이러한 확장 능력은 AI 공장에서 대규모 GPU 클러스터에 매우 중요하며, 엔비디아의 AI 하드웨어 시장에서의 입지를 더욱 확고히 하고 있습니다.

* 이 글은 computerbase.de의 기사를 요약한 것입니다. 전체 기사의 내용은 이곳에서 확인하실 수 있습니다.
카테고리: GPU
태그: Nvidia (2083) AI (1287) benchmarking (350) Blackwell (229) GPU performance (119) supercomputing (36) Deep Learning (24) MLPerf (14) Llama 3.1 (5)

댓글

댓글을 쓰기 위해서는 로그인을 해 주세요.