주요 기술 플랫폼을 감독하는 기관인 Tech Transparency Project(TTP)의 새로운 보고서에 따르면 연구원들은 Google Play Store에서 "나체 사진" 딥팩 앱 55개와 Apple App Store에서 47개를 발견했습니다.
이러한 애플리케이션을 통해 사용자는 AI 생성 기술을 사용하여 디지털 옷을 삭제하거나 실제 얼굴을 나체 몸에 합성할 수 있습니다.
여론이 특히 우려하는 것은 위의 앱이 소셜 네트워크에서 공개적으로 공유되는 개인 사진을 사용하기만 하면 쉽게 다운로드할 수 있다는 것입니다.
TTP는 "누디파이" 또는 "온드레스트"와 같은 키워드로 검색하면 여전히 세계에서 가장 인기 있는 두 앱 스토어 모두에 많은 앱이 나타나는다고 밝혔습니다.
테스트 과정에서 연구팀은 원본 사진에 민감한 요소가 전혀 없더라도 매우 현실적인 성적 또는 나체 이미지를 생성할 수 있는 많은 응용 프로그램을 발견했습니다.
이것은 이미지 딥팩 형태이며, 개인의 사생활과 명예를 침해하여 격렬한 논쟁을 불러일으키고 있는 기술입니다.
주목할 만한 점은 이 애플리케이션의 총 다운로드 수가 7억 배를 초과하여 1억 1,700만 달러 이상의 수익을 올렸다는 것입니다.
유통 중개자 역할을 하는 애플과 구글도 애플리케이션 거래에서 일부 이익을 얻습니다.
이 수치는 두 기술 거대 기업의 콘텐츠 검열 책임에 대한 질문을 더욱 격렬하게 만들었습니다.
설문 조사는 또한 많은 앱이 청소년, 심지어 어린이에게 적합한 것으로 평가된다는 경각심을 불러일으키는 현실을 보여줍니다.
예를 들어, DreamFace 앱은 Google Play에서 13세 이상, Apple App Store에서 9세 이상 사용자를 대상으로 평가되지만 AI를 사용하여 민감한 이미지를 생성하는 기능이 있습니다.
여론의 압력에 직면하여 애플은 보고서 발표 후 24개 앱을 삭제했다고 밝혔지만, 이 수치는 TTP가 확인한 47개 앱보다 여전히 훨씬 낮습니다.
구글은 정책을 위반한 일부 앱을 일시 중단했지만 삭제된 구체적인 수를 밝히는 것을 거부했습니다.
TTP 보고서는 xAI의 AI 도구 Grok도 어린이 관련 콘텐츠를 포함하여 동의 없이 많은 양의 민감한 이미지를 생성한 것으로 밝혀진 상황에서 발표되었습니다.
이는 기술 플랫폼이 AI가 생성하는 위험을 효과적으로 통제하지 못하고 있다는 우려를 더욱 불러일으킵니다.
전문가에 따르면 AI를 이용한 "나체" 응용 프로그램은 정신 건강에 심각한 해를 끼칠 뿐만 아니라 여성과 소녀에 대한 폭력과 차별을 증가시키는 데 기여하며, 소녀들은 딥팩 포르노의 피해자가 되는 대상 그룹입니다.
이러한 현실에 직면하여 영국을 포함한 많은 국가들이 디지털 옷을 삭제하는 AI 도구를 완전히 금지하는 것을 검토하고 있으며, 이를 생성하고 유통하는 것을 불법 행위로 간주하고 있습니다.