전 인텔 CEO 패트 겔싱어의 스타트업, OpenAI 대신 중국의 DeepSeek 선택

전문: https://www.tomshardware.com/tech-industry/artificial-intelligence/...

원저자: Hassam Nasir | 작성일: 2025-01-29 18:00
사이트 내 게시일: 2025-01-29 22:38
중국의 오픈소스 대형 언어 모델(LLM)인 DeepSeek R1이 OpenAI의 모델보다 우수한 성능을 보이며 주목받고 있습니다. 패트 겔싱어 전 인텔 CEO는 교회를 위한 AI 기반 챗봇 'Kallm' 개발에 집중하는 스타트업 Gloo를 위해 DeepSeek를 선택했습니다.

겔싱어의 결정은 인텔에서 물러난 후 회사의 주가 성과에 대한 추측이 일고 있는 가운데 이루어졌습니다. Gloo는 DeepSeek의 오픈소스 특성과 OpenAI의 제품에 비해 통합이 용이한 점 덕분에 R1 모델이 더 적합하다고 판단했습니다.

DeepSeek는 R1 모델 훈련에 Nvidia의 H800 GPU를 사용했지만, 주로 Huawei의 Ascend AI 가속기를 활용하여 추론을 진행하며 비용 절감과 서구 기술 의존도를 줄이는 것을 목표로 하고 있습니다. 이 회사는 총 훈련 비용이 560만 달러에 불과하다고 주장하며, 이는 Meta의 Llama 3 405b 모델과 비교해 11배 적은 컴퓨팅 파워를 요구하는 것으로 알려져 있습니다. 겔싱어는 DeepSeek의 훈련 비용이 OpenAI의 GPT-3 모델보다 10-50배 저렴하다고 밝혔지만, 이러한 주장에 대해 업계 전문가들은 회의적인 반응을 보이고 있습니다.

또한, DeepSeek는 모델 개발 과정에서 ChatGPT의 데이터를 부적절하게 사용한 혐의로 마이크로소프트와 OpenAI의 조사를 받고 있습니다. 이 회사는 사용자 데이터를 중국에 위치한 서버에 저장하는 데이터 수집 관행으로도 주목받고 있으며, 운영에 대한 투명성을 유지하고 있습니다.

* 이 글은 tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은 이곳에서 확인하실 수 있습니다.
카테고리: AI
태그: Nvidia (1803) OpenAI (171) Huawei (158) DeepSeek (46) Pat Gelsinger (32) Data Privacy (29) LLM (18) AI Chatbot (5) Gloo (2)

댓글

댓글을 쓰기 위해서는 로그인을 해 주세요.