캘리포니아에 거주하는 노인 앤서니가 아들의 목소리를 흉내 낸 AI 음성 기술을 이용한 정교한 사기의 피해자가 되었습니다. 사기는 아들이 사고에 연루되어 긴급히 자금이 필요하다는 전화를 받으면서 시작되었습니다. 앤서니는 그 목소리가 아들의 것이라고 확신하게 되었습니다.
첫 번째 전화 이후, 앤서니는 아들의 변사라고 주장하는 사람으로부터 두 번째 전화를 받았고, 보석금으로 9,200달러를 요구했습니다. 아들의 상황을 확인하려 했지만, 앤서니는 아들에게 연락할 수 없었고, 그의 전화는 음성사서함으로 넘어갔습니다. 패닉 상태에 빠진 앤서니는 태양광 패널 설치를 위한 자금이 필요하다는 핑계를 대고 돈을 인출했습니다.
사기는 또 다른 전화로 확대되었고, 사고에 연루된 임신한 여성이 사망했다는 소식이 전해지면서 보석금이 15,800달러에서 25,000달러로 증가했습니다. 앤서니와 그의 딸은 현금을 우버 운전사에게 전달한 후 자신들이 사기를 당했다는 사실을 깨닫고, 사건을 당국에 신고했습니다.
LAPD의 탐정 첼시 세이거는 이러한 사기가 점점 더 흔해지고 있으며, AI 음성 생성기가 사기꾼들이 믿을 수 있는 이야기를 만들기 쉽게 하고 있다고 강조했습니다. 기술의 빠른 발전은 진짜와 가짜 목소리의 경계를 모호하게 만들어 개인들이 사기에 더 취약해지도록 합니다. 앤서니는 자신의 부끄러움을 표현했지만, 이러한 사기에 대한 인식을 높여 다른 사람들이 피해를 입지 않도록 하고 싶다고 밝혔습니다.
이 사건은 악의적인 행위자에게 고급 AI 기술이 주는 위험성을 일깨우는 경고로 작용하며, 가족들이 잠재적인 사기에 대해 경각심을 가지고 인식할 필요성을 강조합니다.
* 이 글은
wccftech.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.