DeepSeek는 6710억 개의 매개변수를 자랑하는 Mixture-of-Experts (MoE) 언어 모델을 훈련시키며 AI 분야에서 중요한 발전을 이루었습니다. 이 과정에서 2,048개의 Nvidia H800 GPU 클러스터를 약 두 달간 활용하여, Meta와 같은 업계 선두주자들에 …
2025-01-28 17:39 | 댓글: 0개중국 AI 스타트업 DeepSeek가 OpenAI, 메타, 앤트로픽과 같은 주요 기업들과 경쟁할 수 있는 AI 모델을 개발했다고 발표했습니다. 이 모델은 GPU 컴퓨팅 자원과 관련 비용을 11배 줄이는 데 성공했습니다. 이러한 주장은 …
2024-12-27 15:23 | 댓글: 0개