ChatGPT는 특정 이름이 입력될 때 충돌하거나 응답을 거부하는 사례가 보고되었습니다. 이는 주로 잘못된 정보와 개인 정보 침해에 대한 우려 때문입니다. Reddit 사용자들은 Brian Hood와 Jonathan Turley와 같은 이름이 오류 메시지를 유발한다는 사실을 발견했으며, GPT-4o는 '응답을 생성할 수 없습니다'라는 메시지를 표시하고, o1 미리보기 버전은 서비스 약관 위반 가능성을 언급합니다.
이 문제는 ChatGPT가 이들 개인에 대한 잘못된 정보를 생성한 이전 사례에서 비롯됩니다. 예를 들어, 호주 시장인 Brian Hood는 뇌물 수수로 투옥되었다고 잘못 보도되었고, 법학 교수인 Jonathan Turley는 성희롱 스캔들에 잘못 연루되었습니다. 또 다른 인물인 하버드 교수 Jonathan Zittrain도 영향을 받았지만, OpenAI는 유사한 맥락에서 다른 언급된 저자들을 차단하지는 않습니다.
흥미롭게도, OpenAI는 사용자가 ChatGPT에게 문구를 무한히 반복해 달라고 요청할 때와 같은 다른 상황에서 더 정교한 오류 처리를 구현할 수 있는 능력을 보여주었습니다. 2023년 11월 연구에 따르면, 이전 버전의 ChatGPT는 멈추고 훈련 데이터를 무심코 출력하는 문제가 있었으나, 이 문제는 이후 해결되었습니다.
이러한 수정된 필터의 의미는 상당합니다. 이들은 정보 접근을 제한할 뿐만 아니라, 사용자가 최신 뉴스와 업데이트를 제공받기 위해 설계된 인터넷 검색 기능에도 영향을 미칩니다. 또한 OpenAI의 접근 방식에서 투명성이 결여되어 있다는 점은 우려를 낳습니다. 특히 공격자들이 이러한 이름 필터를 악용하여 시각적 프롬프트 주입 기법을 통해 채팅 세션을 충돌시킬 수 있기 때문입니다. 이 상황은 EU에서 데이터 보호 당국이 GDPR 규칙 준수를 요구하는 개인 정보 보호 규정 준수 문제를 복잡하게 만듭니다.
* 이 글은
computerbase.de의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.