미국 캘리포니아 연방 법원 기록에 따르면 Meta 사용자 설문 조사에 따르면 Instagram을 사용하는 13세에서 15세 사이의 청소년의 19%가 이 플랫폼에서 보고 싶지 않은 나체 사진이나 포르노 콘텐츠를 본 적이 있다고 인정했습니다.
이 문서는 인스타그램 책임자인 아담 모세리 씨의 2025년 3월 진술 발췌문을 포함하여 메타에 대한 소송의 일부로 공개되었습니다.
이에 따르면 데이터는 게시된 콘텐츠를 직접 검토하는 것이 아니라 플랫폼에서 실제 경험을 평가하기 위한 2021년 사용자 설문 조사에서 비롯되었습니다.
민감한 콘텐츠 문제뿐만 아니라 진술에 따르면 13~15세 사용자 중 약 8%가 같은 설문 조사에서 인스타그램에서 자해 행위 또는 자해 위협과 관련된 게시물을 본 적이 있다고 답했습니다.
소송에서 공개된 또 다른 내부 문서에 따르면 Meta의 한 연구원은 회사가 청소년 사용자 그룹에 집중해야 한다고 권고했습니다. 왜냐하면 그들은 가정에서 "촉매제"로 간주되어 부모와 어린 자녀의 앱 사용에 영향을 미치기 때문입니다.
2021년 1월 20일자 양해각서는 새로운 사용자를 유치하고 유지하는 것은 이 연령대의 영향력에 크게 달려 있다고 강조했습니다.
현재 Meta는 젊은이들의 정신 건강에 대한 소셜 네트워크의 영향에 대해 전 세계 정책 입안자와 규제 기관으로부터 많은 비판에 직면해 있습니다.
미국에서는 연방 및 주 차원에서 수천 건의 소송이 회사가 중독성 제품을 설계하여 청소년의 심리적 위기를 악화시키는 데 기여했다고 비난하고 있습니다.
Meta 대변인 앤디 스톤은 민감한 콘텐츠 노출에 대한 데이터는 플랫폼에서 콘텐츠의 전체적인 노출 정도를 평가하는 것이 아니라 사용자 경험 설문 조사 결과를 반영할 뿐이라고 말했습니다.
이 회사는 청소년에 초점을 맞춘 전략과 관련된 내부 양해각서에 대해 추가로 답변하지 않았습니다.
2025년 말, Meta는 일부 교육적 또는 의료적 경우를 제외하고 인공 지능으로 생성된 경우에도 나체 또는 명백한 성적 활동 콘텐츠가 포함된 이미지 및 비디오를 삭제하여 젊은 사용자 보호 조치를 강화할 것이라고 발표했습니다.
진술에서 모세리 씨는 또한 대부분의 민감한 콘텐츠가 사용자 간의 개인 메시지를 통해 공유되어 회사가 콘텐츠 통제와 개인 정보 보호 사이에서 고민해야 한다고 밝혔습니다.