AI 플랫폼 또 다시 사생활 침해
37만 건 이상의 사용자 대화 그록(xAI가 개발한 인공 지능 플랫폼)이 구글 다파 빙 덕덕덕고에 우연히 공개적으로 등장했습니다.
포브스 조사에 따르면 이유는 보안이 부족하게 설계된 cap 공유 기능에서 비롯됩니다. 이러한 공유 링크에는 '노index' 카드나 cap cap cap cap cap, 제한과 같은 보호 메커니즘이 없어 링크가 있는 사람은 누구나 볼 수 있습니다.
우려스러운 점은 많은 유출된 대화에 비밀번호 입자 건강에 대한 의문 심지어 불법 계획 및 폭발물 제조 지침과 같은 민감한 개인 정보가 포함되어 있다는 것입니다.
기록이 익명으로 유지될 수 있지만 대화 데이터는 보안 및 개인 정보 보호에 심각한 위험을 초래하는 사용자의 신원이나 위치를 추적하기에 충분합니다.
AI 플랫폼이 이와 유사한 실수를 저지른 것은 이번이 처음이 아닙니다. 이전에는 Harvey OpenAI가 ChatGPT 공유 링크가 공개적으로 색인화되었을 때 긴급하게 처리해야 했습니다.
그러나 그로그는 경고 교훈을 무시하면서 전철을 밟은 것으로 보입니다. xAI가 그로그 수정 조치를 구현할 때까지 공유된 모든 그로그 링크는 사용자에게 잠재적인 위험이 될 수 있습니다.
사용자는 지금 당장 무엇을 해야 할까요?
이 사건에 대해 전문가들은 사용자가 즉시 해야 할 3단계를 권장합니다.
- '공유' 버튼 사용 일시 중지: 대화가 비밀로 유지될 것이라고 오해하지 마세요.
- 공유된 링크를 수동으로 확인하고 삭제합니다. 그런 다음 Google의 콘텐츠 삭제 도구를 사용합니다. 시간이 오래 걸리고 절대적으로 안전하지는 않지만 이 방법이 개인 데이터를 공개적으로 떠다니게 하는 것보다 여전히 안전합니다.
- 공유가 필요할 때 스크린샷 우선 사용: 사진이 공개 URL을 생성하지 않고 검색 엔진에서 인덱싱할 수 없기 때문에 더 안전한 방법입니다.
Grok와 xAI는 무엇을 수정해야 할까요?
개발자 측면에서, xAI는 사용자가 공유할 때마다 명확한 경고를 추가하고 불법 또는 민감한 데이터가 외부로 유출되는 것을 방지하기 위해 노index 태그를 적용하여 콘텐츠를 차단 색인화 및 검열해야 하는 것으로 알려져 있습니다.
Grok 사고는 단순한 기술적 실패일 뿐만 아니라 AI 시대에 개인 정보 보호에 대한 경종을 울리는 것입니다.
개인 정보 보호는 우연에 의존할 수 없습니다. 처음부터 안전하고 투명한 디자인으로 보장되어야 합니다.