구글, 자체 AI 가속기 아이언우드(Ironwood) 발표 – 엘 카피탄(El Capitan) 대비 24배 성능 향상 가능

전문: https://www.igorslab.de/en/google-unveils-ironwood-the-seventh-gene...

원저자: Samir Bashir | 작성일: 2025-04-11 04:00
사이트 내 게시일: 2025-04-11 04:26
구글은 'Google Cloud Next '25' 행사에서 최신 AI 가속기 아이언우드(Ironwood)를 공개했습니다. 이번 세대의 TPU 칩은 추론 작업에 최적화되어 있으며, 이전의 훈련 유닛 중심에서 전환된 것을 의미합니다. 아이언우드는 192GB의 고대역폭 메모리(High Bandwidth Memory, HBM)를 갖추고 있으며, 이는 이전 모델인 트릴리움(Trillium) 대비 6배 증가한 수치입니다. 이 개선으로 인해 메모리 대역폭은 7.2TB/s에 달하며, 이는 대규모 모델과 데이터 처리를 낮은 지연 시간으로 가능하게 하여 효율성을 높입니다.

칩 간 상호 연결(Inter-Chip Interconnect, ICI) 대역폭도 1.2테라비트(terabits)로 두 배 증가하여 대규모 추론 클러스터 내에서 칩 간의 빠른 통신을 지원합니다. 구글은 아이언우드가 이전 세대 대비 와트당 두 배의 효율성을 달성했다고 주장하며, 에너지 대 전력 비율을 향상시켰습니다.

아이언우드는 256개의 칩을 갖춘 소형 구성과 최대 9,216개의 칩을 갖춘 구성으로 제공될 예정이며, 후자는 42.5 엑사플롭스의 컴퓨팅 파워를 제공할 것으로 예상됩니다. 현재 슈퍼컴퓨터 챔피언인 엘 카피탄(El Capitan)은 2 엑사플롭스에 미치지 못하는 성능을 보이고 있어, 아이언우드가 24배 더 빠를 수 있다는 주장이 있지만, 이는 독립적인 검증을 기다리고 있습니다. 이러한 포지셔닝은 AI 전용 하드웨어가 전통적인 범용 시스템에 비해 점점 더 우위를 점하고 있음을 강조합니다.

전략적으로 아이언우드는 NVIDIA의 시장 지배력에 도전하며, 구글은 아마존(Amazon) 및 마이크로소프트(Microsoft)와 같은 다른 클라우드 제공업체와 함께 NVIDIA의 GPU에 대한 비용 효율적이고 전문화된 대안을 제공하고자 합니다. 추론 작업에 대한 집중은 AI 애플리케이션에서 실시간 평가 및 응답의 중요성이 증가하는 광범위한 추세를 반영합니다. 아이언우드가 구글의 클라우드 서비스에 실제로 통합될지는 불확실하지만, 그 개발은 구글의 기술적 독립성을 향한 움직임과 AI 가속기 경쟁 환경의 잠재적 변화를 의미합니다. 아이언우드의 실제 성능은 그 능력과 구글의 AI 분야에서의 야망을 시험하는 궁극적인 기준이 될 것입니다.

* 이 글은 igorslab.de의 기사를 요약한 것입니다. 전체 기사의 내용은 이곳에서 확인하실 수 있습니다.
카테고리: AI
태그: Nvidia (1738) AI (1047) Google (228) cloud computing (204) High Bandwidth Memory (12) TPU (9) ExaFLOPS (7) Inference (6) Ironwood (1)

댓글

댓글을 쓰기 위해서는 로그인을 해 주세요.