메타는 자사 내부 벤치마크 결과 OpenAI의 GPT-4o 미니와 유사한 성능을 보이는 새로운 AI 모델 Llama 3.1을 출시했습니다. Llama 3.1 405b 모델은 이전 Llama 3 모델(70억, 80억 매개변수)보다 훨씬 많은 4,050억 매개변수를 가지고 있습니다. 또한 이전 모델들에 대한 최적화도 진행되어 입력 처리 범위가 최대 128,000 토큰까지 늘어났습니다.
메타의 벤치마크 결과, Llama 3.1 405b 모델은 GPT-4o 미니, Anthropic의 Claude 3.5 Sonnet 등 주요 대규모 언어 모델(LLM)과 유사한 성능을 보이는 것으로 나타났습니다. 매개변수가 각각 80억, 70억인 더 작은 Llama 3 모델들도 유사한 규모의 모델들과 경쟁력 있는 성능을 발휘하는 것으로 확인되었습니다.
Llama 3.1은 메타나 Hugging Face에서 다운로드할 수 있으며, AWS, Azure, Google Cloud, Dell, Nvidia 등 파트너사의 클라우드 서비스를 통해서도 이용 가능합니다. 메타는 이 모델에 대한 기술 백서도 공개했습니다.
메타 CEO 마크 저커버그는 오픈 소스 정책을 통해 협업과 혁신을 촉진하고자 한다고 밝혔습니다. 이번 Llama 3.1 405b 출시로 메타 AI의 역량이 개선되어 코딩 지원 및 이미지 편집 기능 확장, 독일어 등 언어 지원 확대가 가능해졌습니다. 다만 EU 지역에서는 아직 개인정보 보호 문제로 메타 AI를 이용할 수 없습니다.
저커버그는 OpenAI와 달리 메타는 AI 모델을 자사 수익모델의 일부로 보지 않는다고 밝혔습니다. 이는 AI 모델을 소셜미디어 플랫폼 고도화를 위한 도구로 활용하는 것이 메타의 전략이기 때문입니다. 이러한 오픈 소스 접근 방식을 통해 기업들은 자체 인프라에서 모델을 운영할 수 있어 데이터 보안과 운영 효율성 제고가 가능할 것으로 보입니다. Llama 3.1 405b는 또한 보다 작은 모델 개발과 학습 데이터 생성 최적화에도 기여할 것으로 기대됩니다.
* 이 글은
computerbase.de의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.