NVIDIA가 블랙웰 GPU를 공개하며 MLPerf v4.1 AI 훈련 벤치마크에서 이전 호퍼 아키텍처 대비 최대 2.2배의 성능 향상을 보여주었습니다. 이 성능 향상은 Llama 2 70B 미세 조정 및 GPT-3 175B 사전 훈련을 포함한 다양한 AI 작업에서 특히 두드러지며, 블랙웰 GPU는 기록적인 결과를 달성했습니다.
호퍼 H100 GPU도 개선되어 초기 제출 이후 LLM 사전 훈련에서 1.3배 더 빠른 성능을 제공합니다. 이들은 HGX A100 대비 6배의 성능 향상을 보여주었고, GPT-3 훈련에서 이전 제출 대비 70%의 성능 향상을 기록했습니다. 호퍼 아키텍처는 Llama 3.1 및 기타 벤치마크에서 주목할 만한 성능 향상을 보이며 추론 작업에서도 뛰어난 성능을 발휘하고 있습니다.
블랙웰 아키텍처는 더 높은 GPU당 계산 처리량과 고급 HBM3e 메모리의 이점을 누리며, 더 적은 GPU를 사용하면서도 호퍼를 능가할 수 있습니다. 예를 들어, GPT-3 벤치마크는 블랙웰 GPU 64개로 실행되었으며, 호퍼는 유사한 결과를 얻기 위해 256개가 필요했습니다. 이러한 효율성은 블랙웰의 우수한 설계와 성능을 강조합니다.
NVIDIA의 전략은 빠른 칩 개발뿐만 아니라 데이터 센터 규모에서 이러한 칩의 검증 및 배포를 강조합니다. 회사는 2025년에 출시될 예정인 블랙웰 울트라 플랫폼을 포함한 미래 발전 계획을 가지고 있으며, 이 플랫폼은 더 많은 메모리와 계산 능력을 갖출 것입니다. 로드맵에는 2026년과 2027년에 출시될 루빈 아키텍처도 포함되어 있어 NVIDIA의 AI 하드웨어 혁신에 대한 지속적인 의지를 나타냅니다.
블랙웰이 본격적인 대량 생산에 들어감에 따라, NVIDIA는 향후 분기에서 기록적인 성능과 수익을 기대하고 있으며, AI 컴퓨팅 솔루션 분야에서의 리더십을 더욱 확고히 할 것입니다.
* 이 글은
wccftech.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.