아마존 웹 서비스(Amazon Web Services, AWS)는 수십만 개의 Trainium2 프로세서를 활용하여 AI 애플리케이션을 위한 약 65 ExaFLOPS의 성능을 목표로 하는 ExaFLOPS급 슈퍼컴퓨터를 개발하고 있습니다. Trainium2는 AWS의 2세대 AI 가속기로, 96GB의 HBM3 메모리를 갖춘 다중 타일 시스템-인-패키지 설계를 특징으로 하며, 칩당 최대 650 TFLOPS의 성능을 제공합니다. AWS는 16개의 연결된 Trainium2 프로세서로 구동되는 EC2 Trn2 인스턴스가 최대 20.8 FP8 PetaFLOPS를 달성할 수 있다고 발표했으며, 이는 이전 추정치보다 상당한 증가입니다. 이 성능은 Nvidia의 H100 GPU와 비교할 수 있으며, H100은 1.98 PetaFLOPS의 FP8 성능을 제공합니다. 또한, AWS는 64개의 연결된 Trainium2 칩을 갖춘 EC2 Trn2 울트라서버를 출시하여 83.2 FP8 PetaFLOPS와 6TB의 HBM3 메모리를 제공합니다. 다가오는 EC2 울트라클러스터는 코드명 프로젝트 레이니어(Project Rainier)로, 수십만 개의 Trainium2 프로세서를 활용하여 약 130 FP8 ExaFLOPS에 도달할 수 있으며, 이는 32,768개의 Nvidia H100 프로세서에 해당합니다. 더불어, AWS는 2025년에 출시될 예정인 Trainium3 프로세서를 소개했으며, 이는 TSMC의 3nm급 기술로 제조될 예정이며, Trainium2보다 4배 빠른 성능을 자랑하며 기계당 332.9 FP8 PetaFLOPS를 달성할 것으로 예상됩니다. 이러한 발전은 AWS가 Nvidia의 제품과 직접 경쟁할 수 있는 자사 솔루션 개발에 대한 의지를 강조하며, AI 슈퍼컴퓨팅의 지형을 재편할 가능성을 보여줍니다.
* 이 글은
tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.