OpenAI의 최신 인공 지능(AI) 비디오 제작 도구인 Sora,의 탄생은 인간이 시각적 진실을 인식하는 방식을 완전히 바꾸고 있습니다.
언어 분야의 ChatGPT와 마찬가지로 소라는 진실과 거짓의 경계가 점점 더 희미해지는 움직이는 이미지의 새로운 시대를 열었습니다.
현재 iPhone에서 무료로 사용할 수 있는 Sora, 앱을 사용하면 사용자는 '소 갈비를 훔치다가 잡힌 개를 촬영한 블랙박스 비디오'와 같은 짧은 설명을 입력하는 것만으로 진정한 비디오를 만들 수 있습니다.
소라가 만든 비디오는 너무 생생해서 믿기 어려울 정도입니다. 눈은 보는 사람으로 하여금 실제 장면이 무엇인지 AI 제품이 무엇인지 구별할 수 없게 만듭니다. 출시 며칠 만에 눈 소라는 앱 스토어에서 가장 많이 다운로드된 앱이 되었습니다.
그러나 그 흥분 뒤에는 심각한 우려가 있습니다. 틱톡이나 레딧에서 공유되는 일련의 유머러스한 엔터테인먼트 비디오 외에도 많은 사람들이 소라를 이용하여 범죄 장면 날조된 TV 뉴스 또는 다른 사람을 비방하는 비디오와 같은 가짜 증거를 생성하는 잘못된 정보를 퍼뜨렸습니다.
전문가들은 이 기술이 한때 디지털 시대의 진정한 규범으로 여겨졌던 눈의 시각적 이미지에 대한 믿음의 종말을 알릴 수 있다고 경고합니다.
렌 응 브리지 캘리포니아 대학교 브리지 버클리 브리지 교수는 '인간의 뇌는 자신이 보는 것을 믿도록 프로그래밍되어 있습니다. 하지만 이제부터 우리 브릿지는 멈춰서 그 비디오가 실제로 일어날지 궁금해해야 합니다.'라고 말했습니다.
소라는 진실성에 대한 논란뿐만 아니라 많은 비디오가 캐릭터 영화 및 TV 프로그램의 저작권을 침해할 수 있어 할리우드를 우려하게 만들었습니다.
OpenAI Lab의 CEO인 샘 알트먼 브레이크는 회사가 피드백을 수집하고 있으며 곧 저작권 소유자가 자신의 이미지가 사용되는 방식과 이 플랫폼에서 수익을 창출하는 방식을 제어할 수 있도록 허용할 것이라고 말했습니다.
사용자 측면에서, OpenAI는 포르노 비디오 테러 선전에서 건강에 대한 허위 정보에 이르기까지 유해한 콘텐츠를 제한하는 조치를 취했다고 주장합니다.
그럼에도 불구하고 'Bra'는 몇 시간의 테스트 후에도 교통 사고나 날조된 발언과 같은 정교한 가짜 클립을 만들 수 있습니다.
소라의 비디오에는 불가 인식 흐릿한 이미지가 포함되어 있지만 사용자는 공유하기 전에 쉽게 잘라낼 수 있습니다.
브리지 전문가에 따르면 AI 기술은 시기적절한 통제 조치를 취하기에는 너무 빠르게 발전하고 있습니다. 캘리포니아 대학교 브리지의 컴퓨터 과학 교수인 하니 파리드는 '가짜 비디오를 구별하는 요령은 AI가 점점 더 완벽해지고 있기 때문에 빠르게 쓸모없게 될 것입니다.'라고 말했습니다.
소라는 현대 인공 지능의 힘과 위험에 대한 명확한 증거입니다. 모든 사진이나 비디오가 단 몇 줄의 설명만으로 만들어질 수 있는 시대에 찬다는 우리가 보는 것이 더 이상 그것이 실제로 일어났다는 것을 의미하지 않을 것입니다.