OpenAI를 통해 사용자는 ChatGPT와의 대화에서 자해 징후를 발견했을 때 회사가 경고할 수 있는 "신뢰할 수 있는 연락처"를 지정할 수 있습니다.
이러한 움직임은 점점 더 많은 사람들이 심리적 문제를 공유하기 위해 ChatGPT를 "디지털 치료사"로 사용하는 상황에서 나타났습니다.
새로운 메커니즘에 따라 18세 이상의 사용자는 ChatGPT 설정에 신뢰할 수 있는 연락처를 추가할 수 있습니다. 지정된 사람은 초대를 받고 1주일 이내에 수락해야 합니다. 응답하지 않으면 사용자는 다른 연락처로 변경할 수 있습니다.
OpenAI는 이 프로세스가 완전히 자동적인 것은 아니라고 밝혔습니다. 전문적으로 훈련된 인력 그룹이 경고를 보내기 전에 각 사례를 검토합니다. 위험이 높다고 평가되면 회사는 이메일, 문자 메시지 또는 앱 내 알림을 신뢰할 수 있는 연락처에게 보낼 수 있습니다.
새로운 기능은 특히 많은 사람들이 챗봇을 개인적인 심리적 문제를 공유하는 장소로 보고 있는 상황에서 사용자 안전을 보장하는 데 있어 인공 지능 플랫폼에 대한 압력이 점점 더 커지고 있음을 보여줍니다.
그러나 위기에 처한 사용자 지원과 개인 정보 보호 사이의 균형을 맞추는 것은 OpenAI뿐만 아니라 기술 산업 전반에 걸쳐 여전히 큰 과제입니다.