인도 정보통신부는 보도 자료에서 이러한 움직임 뒤에 숨겨진 이유를 다음과 같이 설명했습니다. AI 도구를 잘못 사용하여 사용자에게 해를 끼치거나 허위 정보를 유포하거나 선거를 조작하거나 개인을 사칭하는 경우가 크게 증가했습니다[1].
이를 제한하기 위해 인도에서는 유튜브 및 인스타그램과 같은 소셜 미디어 플랫폼에서 인공 지능 콘텐츠 또는 AI 생성 콘텐츠에 라벨링을 의무화하는 규정 초안을 제안했습니다. 소셜 미디어 플랫폼은 사용자에게 업로드된 콘텐츠가 통합 정보인지 여부를 신고하도록 요구합니다.
메타와 구글과 같은 회사는 이미 플랫폼에 AI 태그를 부착하는 몇 가지 형태를 가지고 있으며mia 콘텐츠를 업로드할 때 콘텐츠 제작자에게 해당 콘텐츠가 AI로 생성되었는지 여부를 묻습니다.
YouTube는 AI60으로 만든 비디오에 '변경되거나 집계된 콘텐츠'라는 레이블을 추가하고 비디오 제작 방법에 대한 설명을 추가하고 콘텐츠의 출처와 해당 콘텐츠가 AI로 의미 있게 변경되었는지 여부에 대한 자세한 정보를 제공할 수 있습니다.
그러나 Bya 대부분의 조치에서 Bya는 이 시점에서 여전히 Bya 반응성입니다. 즉 라벨은 일반적으로 비디오가 플랫폼에 도달한 후에 나타나 창작자가 콘텐츠가 AI로 생성되었다고 신고하지 않도록 합니다.
제안된 인도 수정안은 회사가 적절한 기술 조치를 구현하여 AI 콘텐츠에 대한 알림을 받을 필요 없이 플랫폼에서 AI 콘텐츠를 확인해야 하기 때문에 이 문제를 한 단계 더 발전시킵니다.
이를 준수하지 않으면 소셜 미디어 플랫폼은 규정에 따른 제재를 받아야 합니다.
9억 명 이상의 인터넷 사용자를 보유하고 있고 브라질에는 많은 민족 및 종교 공동체가 있기 때문에 인도 정부가 AI 및 딥페이크에 대한 규정을 강력하게 시행하는 것은 당연합니다.