라스베가스 메트로폴리탄 경찰청은 매튜 리벨스버거가 1월 1일 트럼프 호텔 외부에서 테슬라 사이버트럭 폭발을 계획하기 위해 ChatGPT를 사용했다고 밝혔습니다. 리벨스버거는 한 시간 동안 ChatGPT에 일련의 프롬프트를 제출하며 폭발물 조달, 효과성, 애리조나에서의 불꽃놀이 합법성, 폭발물 점화를 위한 총기 필요성에 대해 질문했습니다.
보조 보안관 도리 코렌은 ChatGPT가 폭발물 점화를 위한 발사 속도에 대한 구체적인 정보를 제공하며 계획에 중요한 역할을 했다고 확인했습니다. 이 사건은 미국 땅에서 AI 도구가 위험한 장치를 만드는 데 사용된 우려스러운 첫 사례로 기록됩니다. 케빈 맥마힐 보안관은 이러한 맥락에서 AI의 함의에 대해 우려를 표명하며, 폭발물 및 총기와 관련된 프롬프트를 표시할 정부의 감독이 부족하다고 지적했습니다.
프롬프트의 전체 세부사항은 공개되지 않았지만, 공유된 내용은 간단하며 ChatGPT의 콘텐츠 제한을 우회하려는 시도가 없었습니다. 이러한 사용은 분명히 OpenAI의 정책을 위반하지만, 리벨스버거의 문의 중에 어떤 안전장치가 작동했는지는 불확실합니다. OpenAI와 경찰은 이 상황에 대한 추가 의견을 아직 제공하지 않았습니다.
* 이 글은
tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.