월스트리트 저널에 따르면, OpenAI는 약 1년 전 ChatGPT 텍스트를 위한 워터마킹 시스템을 개발했지만, 이를 공개하지 않았습니다. 그 이유 중 하나는 ChatGPT를 과제로 사용하는 학생들을 포함한 사용자들이 노출되는 것을 피하고자 하는 욕구입니다. 익명의 소식통은 워터마킹 시스템의 구현이 간단하며, 단지 버튼을 누르는 것만으로 가능하다고 전했습니다.
핵심 문제는 기술적 도전보다 비즈니스 정책에 더 관련이 있는 것으로 보입니다. 내부 소식통들은 OpenAI가 특히 학술적 목적으로 AI 챗봇을 사용하는 학생들 사이에서 사용자 수가 감소할 것을 우려하고 있다고 주장합니다. 반면, OpenAI 대변인은 워터마킹 방법과 관련된 기술적 위험을 강조하며, 이 방법이 복잡하다고 설명했습니다. 예를 들어, 비원어민 영어 사용자가 생성한 텍스트는 오류가 비율적으로 더 많이 나타날 수 있어, OpenAI의 생태계를 넘어서는 보다 폭넓은 접근이 필요하다고 합니다.
워터마킹은 생성적 AI 이미지 생성기에서 표준으로 사용되며, 특정 서비스에 의해 이루어진 이미지의 진위 여부나 변경 사항을 검증할 수 있습니다. 그러나 텍스트에 유사한 방법을 적용하는 것은 훨씬 더 어려운 일입니다. OpenAI는 2023년 2월에 탐지 소프트웨어를 도입했으나, 정확한 결과를 제공하지 못해 몇 달 후에 중단되었습니다.
구글의 AI 자회사인 DeepMind의 연구에 따르면, AI가 생성한 텍스트를 식별할 수 있다고 합니다. 그들의 SynthID 시스템은 Gemini에 통합되었지만, 여전히 베타 상태이며 널리 채택되지 않고 있습니다.
* 이 글은
computerbase.de의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.