태그: Llama 3.1

2018년 시작 이후 열두 번째 MLPerf Training 벤치마크에서 엔비디아는 576개의 블랙웰 GPU를 탑재한 엔비디아 DGX GB200 슈퍼포드(SuperPOD)를 통해 리더로 떠올랐으며, 이는 인상적인 11.5 엑사플롭스(ExaFLOPS)의 성능을 자랑합니다. 이번 라운드는 4050억 개의 …

2025-06-04 15:00 | 댓글: 0개

SemiKong(세미콩)은 Aitomatic과 AI 얼라이언스의 파트너들이 개발한 반도체 산업을 위해 특별히 설계된 최초의 대형 언어 모델(LLM)입니다. 이 모델은 반도체 설계의 워크플로우를 개선하고 새로운 칩 개발을 20-30% 가속화하는 것을 목표로 하고 있습니다. …

2024-12-28 18:59 | 댓글: 0개

NVIDIA는 독자적인 디코딩 알고리즘인 메두사를 도입하여 Llama 3.1 추론 성능을 크게 향상시켰으며, HGX H200 AI 가속기에서 최대 1.9배 빠른 토큰 생성을 달성했습니다. 이 발전은 대형 언어 모델(LLM)이 점점 더 복잡해짐에 …

2024-09-08 09:00 | 댓글: 0개

ollama v0.3 출시로 Llama 3.1 및 Mistral Large 2에 대한 강력한 지원이 도입되면서 ollama 플랫폼의 기능이 향상되었습니다. 이번 업데이트를 통해 성능이 개선되고 이러한 모델을 활용하는 사용자들의 응용 범위가 확장될 것으로 …

2024-07-25 09:56 | 댓글: 0개

메타는 자사 내부 벤치마크 결과 OpenAI의 GPT-4o 미니와 유사한 성능을 보이는 새로운 AI 모델 Llama 3.1을 출시했습니다. Llama 3.1 405b 모델은 이전 Llama 3 모델(70억, 80억 매개변수)보다 훨씬 많은 4,050억 …

2024-07-23 16:53 | 댓글: 0개