OpenAI의 최근 보고서는 생성적 인공지능, 특히 ChatGPT가 20건 이상의 사이버 공격에 활용된 우려스러운 경향을 강조합니다. 이러한 공격에는 스피어 피싱, 악성코드 개발 및 기타 악의적인 활동이 포함되어 있으며, AI 기술의 잠재적 오용을 보여줍니다.
보고서는 세 가지 주목할 만한 사이버 공격을 자세히 설명합니다. 첫 번째 공격은 2024년 11월 Cisco Talos에 의해 보고되었으며, 중국 해커들이 'SweetSpecter'라는 스피어 피싱 방법을 사용하여 아시아 정부를 표적으로 삼았습니다. 이 방법은 악성 페이로드가 포함된 ZIP 파일을 통해 피해자의 시스템에서 감염 체인을 시작하게 했습니다. 공격자들은 여러 ChatGPT 계정을 활용하여 스크립트를 생성하고 취약점을 식별했습니다.
두 번째 공격은 'CyberAv3ngers'라는 이란 그룹에 의해 발생했으며, 이들은 macOS의 취약점을 이용해 사용자 비밀번호를 탈취했습니다. 세 번째 사건은 또 다른 이란 그룹인 Storm-0817이 ChatGPT를 사용하여 Android 기기를 위한 악성코드를 개발한 것입니다. 이 악성코드는 연락처 목록을 탈취하고, 통화 기록 및 브라우저 기록을 추출하며, 기기 위치를 파악하고 파일에 접근할 수 있는 기능을 가지고 있었습니다.
이러한 사건에도 불구하고 보고서는 생성된 악성코드가 근본적으로 새로운 것이 아니라 기존 방법의 변형에 불과하다고 지적합니다. 이는 악의적인 행위자들이 생성적 AI 도구를 조작하여 유해한 소프트웨어를 쉽게 만들 수 있다는 우려를 불러일으킵니다.
OpenAI는 이러한 위험을 완화하기 위해 AI 시스템의 지속적인 개선이 필요하다고 인정합니다. 이 회사는 내부 안전 팀과 협력하고 업계 동료들과 발견 사항을 공유하여 보안 조치를 강화할 계획입니다. 보고서는 유사한 공격을 방지하기 위해 모든 생성적 AI 플랫폼에서 보호 조치를 구현하는 것이 중요하다고 강조하며, 이러한 위협으로부터 안전을 확보하는 것이 여전히 큰 도전 과제임을 알립니다.
* 이 글은
tomshardware.com의 기사를 요약한 것입니다. 전체 기사의 내용은
이곳에서 확인하실 수 있습니다.