메타는 메타 커넥트 2024 행사에서 향상된 시각적 기능을 갖춘 최신 AI 모델 Llama 3.2를 공개했습니다. 이 모델은 이미지와 카메라 녹화를 처리할 수 있어 시각적 데이터를 분석하고 이에 대한 질문에 응답할 수 있습니다. Llama 3.2는 110억 및 900억 개의 매개변수를 가진 두 개의 대형 모델을 포함하여 총 네 가지 변형으로 제공되며, 이 모델들은 시각적 추론에서 뛰어난 성능을 발휘합니다. 이러한 기능은 텍스트, 차트, 그래픽 및 이미지를 포함한 문서를 처리하여 일상 업무의 생산성을 향상시키는 것을 목표로 하고 있습니다.
메타는 이러한 비전 모델을 위한 새로운 아키텍처를 개발하여 이전 Llama 3.1 모델을 넘어서는 중요한 발전을 이루었습니다. 10억 및 30억 개의 매개변수를 가진 소형 변형은 텍스트 기능에 중점을 두며, 사용자 장치에서 AI 에이전트 시스템을 직접 실행할 수 있어 개인 정보 보호를 강화합니다. 메타의 벤치마크에 따르면, 새로운 모델들은 성능이 우수하지만, 시장의 최고 모델이 아닌 소형 경쟁자들과 비교되고 있습니다.
Llama 3.2 모델은 오픈 라이선스 하에 제공되며, 메타와 Hugging Face에서 다운로드할 수 있고, AMD, AWS, 마이크로소프트와 같은 파트너를 통해 클라우드 접근도 가능합니다.
또한, 메타 AI는 챗봇에 음성 입력 기능을 도입하여 ChatGPT의 새로운 언어 모드와 유사한 보다 자연스러운 대화를 가능하게 했습니다. 사용자는 개인 비서의 목소리를 개인화하고, 웹 정보 검색 및 이미지 업로드를 포함한 실시간 응답을 받을 수 있습니다. 그러나 메타 AI와 Llama 2는 규제 문제로 인해 EU에서 사용할 수 없으며, 출시 일정은 불확실합니다.
메타의 AI 발전은 Ray-Ban 모델과 같은 스마트 안경에도 확장되어 새로운 AI 기능이 추가되었습니다. 회사는 AI 모델의 시각적 기능을 활용한 홀로그램 디스플레이를 갖춘 첫 번째 기능성 증강 현실(AR) 안경인 Orion을 선보였습니다. 전반적으로 이러한 발전은 메타의 가상 현실 부문에서의 변화, 즉 이전에 상당한 재정적 손실을 겪었던 분야에서 AI 혁신에 의해 주도되는 보다 실질적인 제품 제공으로의 전환을 나타냅니다.
* 이 글은
computerbase.de의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.