GPT-4o의 음성 모드: ChatGPT에 감정 기능이 알파 단계에 진입

전문: https://www.computerbase.de/2024-07/sprachmodus-von-gpt-4o-emotione...

원저자: Andreas Frischholz | 작성일: 2024-07-31 12:47
사이트 내 게시일: 2024-07-31 13:06
OpenAI는 ChatGPT의 새로운 음성 모드의 알파 단계를 성공적으로 출시했습니다. 현재는 유료 플러스 버전 사용자를 대상으로 한정 배포되고 있으며, 올가을에 더 광범위한 이용이 가능할 전망입니다. 이번 5월 봄 업데이트 행사에서 공개된 이 새로운 음성 기능은 감정 표현을 포함하여 ChatGPT를 보다 진실한 대화 상대로 만들고자 합니다. 업데이트된 GPT-4o 모델은 약 320밀리초의 빠른 응답 속도와 놀라움, 풍자 등의 감정 표현 기능을 갖추고 있습니다. 이 알파 단계 출시는 수백만 건의 실시간 요청을 처리할 수 있는 안전장치와 인프라 확장성 확보를 위해 지연되었습니다. GPT-4o는 이미 텍스트 형태로 오래전부터 사용되어 왔지만, 음성 모드와 화면 녹화 기능은 아직 개발 중입니다. 특히 화면 녹화 기능은 카메라 영상을 분석하고 실제 상황에 반응할 수 있다는 점에서 주목받고 있습니다. OpenAI는 안전성 확보에 주력하고 있으며, 100명 이상의 외부 테스터가 새로운 모델의 오류와 보안 취약점을 식별하는 데 참여했다고 밝혔습니다. 이 모델은 딥페이크 방지를 위해 4개의 음성 템플릿만을 사용하도록 설계되었고, 폭력적이거나 저작권이 있는 콘텐츠 생성을 차단하는 지침을 준수합니다. 그러나 OpenAI 안전 팀에게 가해진 출시 기한 압박으로 인해 취약점 식별이 제대로 이루어지지 않았다는 비판도 있었습니다. OpenAI는 안전 테스트 과정에서 어떤 절충도 없었다고 주장하면서도, GPT-4o 출시를 앞두고 팀에 상당한 스트레스가 있었음을 인정했습니다.

* 이 글은 computerbase.de의 기사를 요약한 것입니다. 전체 기사의 내용은 이곳에서 확인하실 수 있습니다.
카테고리: AI
태그: Machine Learning (106) OpenAI (97) ChatGPT (59) GPT-4o (12) voice technology (6) real-time interaction (3) emotional AI (2) safety protocols (1) deepfakes (1)

댓글

댓글을 쓰기 위해서는 로그인을 해 주세요.