중국 AI 기업 01.ai는 단 2,000개의 GPU를 사용하여 300만 달러의 비용으로 Yi-Lightning이라는 고급 AI 모델을 성공적으로 훈련했습니다. 이는 OpenAI가 GPT-4 훈련에 소요한 8천만에서 1억 달러, GPT-5에는 최대 10억 달러에 비해 현저히 낮은 비용입니다. 01.ai의 창립자인 Kai-Fu Lee는 이 성과가 세심한 엔지니어링과 최적화를 통해 고성능 AI를 훨씬 낮은 예산으로 개발할 수 있음을 보여준다고 강조했습니다.
Yi-Lightning 모델은 UC Berkeley의 LMSIS 지표에 따르면 성능 순위 6위를 기록하며, 제한된 자원에도 불구하고 경쟁력을 보여줍니다. 01.ai의 접근 방식은 계산 작업을 메모리 중심 작업으로 변환하고, 다층 캐싱 시스템을 구현하며, 전문화된 추론 엔진을 만드는 등 모델 성능을 향상시키기 위한 혁신적인 전략을 포함했습니다. 이로 인해 추론 비용이 백만 토큰당 단 10센트로 dramatically 낮아졌으며, 이는 유사한 모델이 청구하는 비용의 약 1/30에 해당합니다.
인상적인 결과에도 불구하고, 01.ai는 미국의 수출 제한으로 인해 고급 GPU 접근이 제한되어 운영 능력에 어려움을 겪고 있습니다. 이 회사는 이전에 1.5년 동안 로드맵을 지원할 수 있는 충분한 GPU를 보유하고 있다고 주장했지만, 현재 GPU 수는 자원 관리에 대한 의문을 제기합니다. 전반적으로 01.ai의 성공은 전략적 계획과 엔지니어링을 통해 방대한 재정 자원 없이도 AI 기술에서 상당한 발전을 이룰 수 있음을 보여줍니다.
* 이 글은
tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.