AWS CEO, 미래 AI 모델 훈련 작업의 대도시 규모 전력 소비 추정 — '개별 모델은 1GW에서 5GW의 전력이 필요할 수 있다'

전문: https://www.tomshardware.com/tech-industry/artificial-intelligence/...

원저자: Jowi Morales | 작성일: 2024-11-03 14:28
사이트 내 게시일: 2024-11-03 14:51
아마존 웹 서비스(AWS) CEO 맷 가르만은 미래의 대형 언어 모델(LLM) 훈련 작업이 대도시와 유사한 전력 수준을 요구할 수 있다고 전망하며, 개별 모델이 1GW에서 5GW의 전력이 필요할 것으로 추정했습니다. 이러한 전력 수요는 AI 모델 훈련의 에너지 요구 사항이 증가하고 있음을 강조하며, 이는 AI 개발에 있어 중요한 요소로 자리 잡고 있습니다.

이 기사에서는 LLM 개발의 역사에 대해 설명하며, 메타의 Llama 시리즈와 OpenAI의 GPT 모델과 같은 주목할 만한 모델들을 언급합니다. 예를 들어, Llama 2는 2023년 7월에 출시되었고, GPT-4는 2023년 3월에 발표되었습니다. 새로운 LLM 세대의 훈련은 현재 하드웨어로 1년에서 2년이 소요되며, Llama-4와 같은 고급 모델은 100,000개 이상의 Nvidia H100 GPU 클러스터를 필요로 합니다. OpenAI는 가용 컴퓨팅 파워의 한계로 인해 ChatGPT-5 모델의 출시를 2025년으로 연기하기도 했습니다.

전력 제약은 이제 AI 개발의 주요 제한 요소로 여겨지고 있습니다. 발전소와 송전선과 같은 필수 인프라의 배치는 시간이 많이 소요됩니다. AI 기업들이 이동식 발전기와 비재생 에너지원에 의존할 수 있지만, 이러한 해결책은 장기적으로 지속 가능하지 않습니다.

이러한 도전에 대응하기 위해 주요 기술 기업들은 선제적인 조치를 취하고 있습니다. AWS는 재생 가능 에너지원의 그리드 통합을 목표로 하는 500개 이상의 프로젝트에 자금을 지원하고 있습니다. Microsoft는 데이터 센터 운영을 지원하기 위해 쓰리 마일 아일랜드 원자력 발전소를 재가동하기 위한 조치를 취했습니다. 또한 Google과 Oracle은 자체 소형 원자력 발전소를 건설할 계획이며, Westinghouse는 차세대 AI 데이터 센터에 전력을 공급하기 위해 쉽게 배치할 수 있는 마이크로 원자로를 개발하고 있습니다. 이러한 재생 가능 전력원이 가동되는 긴급성이 AI 기술의 지속적인 발전에 매우 중요합니다.

* 이 글은 tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은 이곳에서 확인하실 수 있습니다.
카테고리: AI
태그: Nvidia (852) AI (638) power consumption (55) AWS (17) Large Language Models (15) renewable energy (11) Nuclear Energy (11) Llama (3) GPT (2)

댓글

댓글을 쓰기 위해서는 로그인을 해 주세요.