수백만 명의 사람들이 심리 상담 감정 공유 또는 정신 해소를 위해 ChatGPT를 찾고 있는 반면 최근 OpenAI의 CEO인 샘 알트먼은 주목할 만한 경고를 발표했습니다. ChatGPT와의 대화는 많은 사람들이 오해하는 것처럼 법적 기밀성이 없습니다.
테오 본이 진행하는 팟캐스트 This Past Weekend의 최근 에피소드에서 알트만은 현재 사용자와 AI 챗봇 간의 대화에서 개인 정보 보호를 보호하기에 충분히 명확한 법적 틀이 없다고 인정했습니다.
“브라이브 의사 변호사 또는 브라이브 치료사와 이야기하면 그 관계는 법적으로 보호됩니다. 하지만 ChatGPT와는 그렇지 않습니다.”라고 그는 말했습니다.
AI가 점점 더 보편적인 '동반자'가 되면서 문제는 더욱 심각해지고 있습니다. 특히 젊은이들에게 그렇습니다. 관계에서 갈등을 해결하는 것부터 심각한 심리적 문제에 이르기까지 사용자는 법적으로 충분히 보호되지 않은 플랫폼에 무심코 신뢰를 두고 있습니다.
“만약 브리더 법적 분쟁이 있다면 우리는 브리더 사용자 정보를 제공하라는 요청을 받을 수 있으며 저는 그것이 정말 나쁘다고 생각합니다.”라고 알트만은 강조했습니다.
왓츠앱이나 시그널 브리지와 같은 종단 암호화 애플리케이션과 달리 ChatGPT와의 채팅 데이터는 OpenAI에서 저장 액세스 및 모델 훈련 또는 위반 행위 검열에 사용할 수 있습니다.
회사는 30일 이내에 무료 채팅을 삭제하기로 약속했지만 특히 보안 또는 법적 분쟁과 관련된 경우 법적 이유로 유지할 수 있습니다.
이러한 현실은 AI를 감정 치료 또는 상담 도구로 사용하는 데 있어 개인 정보 보호 및 윤리에 대한 심각한 질문을 제기합니다.
기술과 개인 생활의 경계가 점점 모호해짐에 따라 사용자는 챗봇이 아무리 귀를 기울여도 민감한 정보를 공유하기 전에 신중하게 고려해야 합니다.