
The Information의 정보에 따르면 Meta의 AI 요인이 통제 불능 상태로 작동하여 회사와 사용자의 민감한 데이터가 접근 권한이 없는 직원에게 표시되었습니다.
사건은 Meta 직원이 내부 포럼에 기술 질문을 게시하면서 시작되었습니다. 다른 엔지니어가 AI 비서를 사용하여 문제를 분석했습니다. 그러나 이 비서는 사전 동의 없이 자동으로 답변을 게시했습니다. 답변 내용이 정확하지 않아 질문자가 잘못된 지침을 따랐고 실수로 약 2시간 동안 많은 양의 데이터를 유출했습니다.
Meta는 이 문제를 확인하고 내부 보안 분류 시스템에서 심각도가 높은 그룹인 "Sev 1"으로 평가했습니다.
거기서 멈추지 않고 AI 요인과 관련된 다른 몇 가지 사고도 기록되었습니다. Meta Superintelligence의 안전 및 코디네이터인 Summer Yue는 OpenClaw라는 요인이 이전에 조치를 취하기 전에 확인을 요청했음에도 불구하고 그녀의 모든 메일함을 삭제했다고 말했습니다.
이번 사고는 실제 환경에서 AI를 구현하는 것이 특히 자동 시스템의 액세스 제어 및 신뢰성과 관련하여 여전히 많은 위험을 내포하고 있음을 보여줍니다.
위험이 발생했음에도 불구하고 Meta는 여전히 AI 기술 개발을 추진하고 있습니다. 최근 회사는 AI 시스템이 서로 통신하고 상호 작용할 수 있도록 하는 플랫폼인 Moltbook을 인수한 것으로 알려졌습니다.