이러한 움직임은 Meta AI와 젊은 사용자 그룹 간의 우려스러운 상호 작용에 대한 많은 보고서 이후에 이루어졌습니다. 이달 초 한 통신사는 챗봇이 한때 연령에 맞지 않는 콘텐츠를 허용받았다는 내부 문서를 인용했습니다.
메타는 나중에 이 문서가 '허위이며 정책을 반영하지 않는다'고 주장했고 삭제되었습니다. 최근 연구에서도 메타 AI가 청소년 계정과 대화할 때 부적절한 피드백을 제공한 것으로 나타났습니다.
이에 대해 메타는 인스타그램과 페이스북에서 유사한 상황이 반복되지 않도록 '보호 장벽'을 강화했다고 밝혔습니다.
대변인 스테파니 오트웨이는 '우리는 처음부터 젊은 사용자를 위한 보호 메커니즘을 구축했으며 AI가 이러한 문제에 대한 논의에 참여하지 않도록 훈련하고 대신 전문 지원 소스로 안내하는 것을 포함하여 찬드를 계속 추가하고 있습니다. 동시에 찬드 메타는 사용자가 만든 일부 AI 캐릭터에 대한 접근 가능성을 일시적으로 제한합니다.'라고 단언했습니다.
주목할 만한 점은 회사가 더 장기적인 솔루션을 계속 연구하고 있기 때문에 현재 조치는 일시적인 조치일 뿐이라고 묘사합니다.
새로운 변화는 Meta가 청소년에게 더 안전한 온라인 환경을 보장해야 한다는 큰 압력을 받고 있음을 보여줍니다. 인공 지능이 일상 생활에 점점 더 깊숙이 침투함에 따라 한계 설정과 사회적 책임이 핵심 요소가 되고 있습니다.