Meta Platforms는 사용자가 13세 미만인지 여부를 확인하기 위해 인공 지능(AI)을 사용하여 이미지와 비디오를 분석할 계획을 발표했습니다.
이 기술은 페이스북 및 인스타그램과 같은 플랫폼에 적용될 예정이며, 온라인 환경에서 아동 보호를 강화하는 것을 목표로 합니다.
Meta에 따르면 AI 시스템은 사용자의 나이를 추정하기 위해 키, 뼈 구조 또는 신체 특징과 같은 시각적 신호를 스캔합니다.
회사는 이것이 얼굴 인식 기술이 아니라 나이에 대한 평가를 내리기 위해 일반적인 특징을 분석하는 것일 뿐이며, 개인 신원은 확인하지 않는다고 강조했습니다.
이미지 데이터 외에도 AI는 텍스트 내용 분석과 상호 작용 행동을 결합합니다.
생일 게시물, 학업 성적 언급, 전기 내용, 댓글 등과 같은 신호는 모두 시스템에 의해 집계되어 계정이 미성년자임을 감지할 때 정확도를 높입니다.
현재 이 기술은 일부 국가에서 테스트 구현되었으며 Meta는 글로벌 규모로 확장하는 것을 목표로 하고 있습니다.
앞으로 이 시스템은 인스타그램 라이브 또는 페이스북 그룹과 같은 많은 기능에 더 깊이 통합될 것으로 예상됩니다.
AI가 13세 미만 사용자에게 속할 가능성이 있는 계정을 식별하면 Meta는 해당 계정을 일시적으로 비활성화합니다.
사용자는 플랫폼의 최소 연령 규정을 준수하도록 복원하려면 연령 확인 절차를 수행해야 합니다.
이러한 움직임은 Meta가 아동 안전과 관련된 많은 법적 압력에 직면한 상황에서 이루어졌습니다.
최근 뉴멕시코 주 배심원단은 아동 위험 및 플랫폼 안전 수준에 대한 허위 정보 제공 혐의로 회사에 3억 7,500만 달러의 민사 벌금을 부과했습니다.
판결은 또한 Meta가 운영 정책에 큰 변화를 가져오도록 강요했습니다.
나이 제한 강화와 함께 메타는 인스타그램의 "청소년 계정" 시스템을 유럽 연합 27개국과 브라질로 확장했습니다.
이 계정은 낯선 사람으로부터의 메시지 제한, 부정적인 댓글 숨기기, 기본 개인 정보 보호 모드와 같이 더 높은 수준의 보호 기능을 갖도록 설계되었습니다.
또한 Meta는 이 기술을 미국에서 Facebook에 배포한 다음 가까운 시일 내에 영국과 EU로 확장할 것이라고 밝혔습니다.
이는 콘텐츠 통제 노력을 강화하고 소셜 네트워크 플랫폼에서 어린 사용자를 보호하기 위한 중요한 단계로 간주됩니다.