엔비디아, 5,890억 달러의 시가총액 손실 — DeepSeek R1 출시로 인한 주식 급락

전문: https://www.tomshardware.com/tech-industry/artificial-intelligence/...

원저자: Jowi Morales | 작성일: 2025-01-28 12:20
사이트 내 게시일: 2025-01-28 16:45
엔비디아의 주가는 1월 27일 주당 118.50달러로 급락하며 개장가 142.02달러에서 거의 17% 하락했습니다. 이로 인해 5,890억 달러 이상의 시가총액 손실이 발생했습니다. 이는 역사상 어떤 회사의 단일일 최대 손실로 기록되며, 나스닥도 3.1% 하락하고 Arm, Broadcom, Oracle과 같은 다른 기술 대기업들도 10% 이상의 주가 하락을 경험했습니다.

이번 시장 하락의 촉매제는 DeepSeek R1의 출시로, 이는 OpenAI의 o1 모델과 성능에서 경쟁할 수 있는 오픈 소스 대형 언어 모델(LLM)로 보고되고 있습니다. DeepSeek는 자사의 모델이 Meta의 Llama 3에 비해 훈련에 필요한 계산 능력이 11배 적다고 주장합니다. DeepSeek-V3 혼합 전문가(MoE) 모델은 6710억 개의 매개변수를 자랑하며, 2,048개의 엔비디아 H800 GPU를 사용해 두 달 동안 훈련되어 총 약 280만 GPU 시간을 소요했습니다. 반면, Meta의 Llama 3는 4050억 개의 매개변수를 가지고 있으며, 16,384개의 H100 GPU를 사용해 54일 동안 훈련되어 약 3080만 GPU 시간을 소요했습니다.

DeepSeek의 모델이 인상적인 성능을 보임에도 불구하고, 훈련에 사용된 H800 칩은 미국의 수출 제한으로 인해 H100보다 성능이 떨어집니다. 이는 중국 회사가 경쟁력 있는 AI 언어 모델을 개발하면서 고급 하드웨어에 대한 의존도를 줄이기 위해 최적화를 진행했음을 강조합니다. 엔비디아는 DeepSeek의 발전을 인정하며, 이를 널리 사용 가능한 모델과 준수 가능한 컴퓨팅 자원을 활용하는 Test Time Scaling의 좋은 예로 설명했습니다.

그러나 DeepSeek의 성공이 가져온 의미는 투자자들 사이에서 AI 하드웨어에 대한 미래 수요에 대한 우려를 불러일으켰습니다. 주요 문제로는 고급 칩을 확보하는 데 드는 높은 비용, 이러한 칩의 막대한 전력 소비, 그리고 국가 전력망에 대한 잠재적 부담이 포함됩니다. Annex Wealth Management의 수석 경제학자인 브라이언 제이콥센은 DeepSeek의 모델이 파괴적 혁신으로 입증될 경우 칩에 대한 수요 감소, 전력 생산의 필요성 감소, 대규모 데이터 센터에 대한 의존도 감소로 이어질 수 있다고 제안했습니다.

* 이 글은 tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은 이곳에서 확인하실 수 있습니다.
카테고리: AI
태그: Nvidia (1285) AI (793) OpenAI (120) Meta (77) stock market (54) H100 (20) DeepSeek (17) LLM (15) H800 (1) MoE (1)

댓글

댓글을 쓰기 위해서는 로그인을 해 주세요.