출시된 지 며칠 만에 OpenAI의 인공 지능 비디오 제작 앱인 Sora는 사용자들이 선거 부정행위 거리 범죄부터 전례 없는 시위까지 일련의 가짜이지만 매우 현실적인 비디오를 만드는 데 사용하면서 격렬한 논란을 불러일으켰습니다.
Google의 Veo 3 또는 다른 AI 비디오 생성 도구와 마찬가지로 밀라 소라는 단 한 줄의 명령만으로 모든 아이디어를 애니메이션 이미지로 변환할 수 있는 능력이 있는 것으로 평가됩니다.
사용자는 자신의 목소리 사진을 업로드하고 AI가 완전히 상상 속의 배경에 삽입하도록 할 수 있습니다.
이 도구는 심지어 유명인의 이미지 브랜드 로고 또는 사망한 역사적 인물을 재현할 수도 있습니다.
사이버 보안 전문가와 학자들은 소라의 능력이 전례 없는 규모로 잘못된 정보가 확산될 위험을 가속화하고 있다고 경고합니다.
저는 경제와 사회 제도 모두에 대해 우려하고 있습니다.'라고 하니 파리드 교수(캘리포니아 대학교 브라 버클리)는 강조했습니다.
파리드 씨에 따르면 고화질 비디오는 모든 것이 위조될 수 있기 때문에 대중이 브라다 시력에 대한 신뢰를 잃게 만들 수 있습니다.
OpenAI는 '브래드 소라'가 폭력적인 이미지 거부 정치 브라 또는 아직 허용되지 않은 유명인과 같은 콘텐츠 보호 조치를 통해 엄격한 보안 테스트 과정을 거쳐 출시되었다고 밝혔습니다.
앱은 또한 AI가 생성한 비디오를 식별하기 위해 애니메이션 워터마크를 부착합니다.
그러나 전문가들은 이러한 조치가 속기 쉽다고 생각하며 사용자는 여전히 익명의 계정을 등록하여 사망한 대중 인물이나 사실이 아닌 이벤트에 대한 잘못된 비디오를 만들 수 있습니다.
뉴욕 타임즈의 테스트 결과 소라는 여전히 상점 강도 장면 폭탄 폭발 장면 또는 심지어 OpenAI CEO 샘 알트먼이 은행을 털고 있는 가짜 이미지와 같이 민감한 요소가 있는 은행 비디오를 만들 수 있으며 이 모든 것이 AI로 연출되었습니다.
그러한 비디오가 소셜 네트워크에 퍼지면 입은 여론을 조작하고 음모론을 폭발시킬 수 있습니다.
크리스티안 해먼드 교수(노스웨스턴 대학교)는 이것을 '거짓 비디오가 만연할 때 시청자는 실제 증거까지 의심하게 되는 거짓말쟁이 효과'라고 불렀습니다.
CivAI, 조직의 설립자인 루카스 한센 브라이다는 '진실의 마지막 요새는 비디오가 무너지고 있다'고 말했습니다.
OpenAI는 소라를 신중하고 책임감 있게 배포할 것을 약속했지만 많은 연구자들은 초현실적인 AI 비디오의 새로운 시대가 사회가 개념 신뢰 및 진정성을 재건하도록 강요할 것이라고 믿습니다.
불과 1년 전만 해도 저는 육안으로 진짜 사진과 가짜 사진을 구별할 수 있었습니다. 하지만 지금은 전문가조차도 확신할 수 없습니다.'라고 파리드 교수는 말했습니다.