인공 지능(AI)이 삶에 점점 더 깊숙이 침투하는 상황에서 우려를 불러일으키는 새로운 현상이 점차 나타나고 있는데 그것은 'AI 정신 장애'입니다.
이 용어는 사용자가 ChatGPT,와 같은 챗봇과 장시간 채팅한 후 현실과의 연결이 끊긴 경험을 공유할 때 소셜 네트워크에 나타난다고 IndianExpress는 보도했습니다.
일반적인 표현에는 잘못된 믿음 자기 망상 또는 망상 상태 심지어 AI 캐릭터와의 긴밀한 감정적 관계 형성이 포함됩니다.
워싱턴 포스트 보고서에 따르면 AI 정신 질환은 의학적으로 공식적으로 정의되지는 않았지만 뇌 쇠약이나 두려움과 같은 증상과 유사한 비정상적인 형태의 온라인 행동으로 간주됩니다.
이 현상은 AI 챗봇의 폭발적인 성장과 동시에 나타났습니다. 그중 2022년 말에 출시되어 현재 매주 약 7억 명의 사용자를 보유하고 있는 ChatGPT가 있습니다.
정신 건강 전문가들은 AI와 너무 오래 상호 작용하면 부정적인 영향을 미칠 수 있다고 경고합니다. 특히 사용자가 가족 친구 또는 전문가 대신 감정 상담 소스로서 챗봇에 의존할 때 그렇습니다.
미국 심리학 협회(APA>)의 의료 혁신 담당 수석 이사인 바이엘 라이트 브랜다는 '이 현상은 너무 새롭고 너무 빠르게 진행됩니다. 우리는 명확하게 이해하기 위한 경험적 증거가 없습니다.'라고 말했습니다.
현재 APA는 잠재적인 피해를 최소화하는 방법에 대한 권장 사항을 제시하기 위해 브라 치료에 AI 사용을 연구하는 전문가 위원회를 구성하고 있습니다.
AI 회사들도 대응하기 위해 노력하고 있습니다. 그중에서도, OpenAI는 심리적 스트레스 징후를 인식하고 증거 기반 지원 소스로 사용자를 유도하기 위해 ChatGPT를 개선하고 있습니다.
챗봇의 피드백은 위험도가 높은 상황에서 직접적인 결정을 내리지 않도록 미세 조정될 것이며 대신 장단점을 고려하도록 권장합니다.
AI 기술 회사인 Anthropic은 사용자가 모욕적이거나 유해한 행동을 하는 경우 가장 강력한 AI 모델이 자동으로 채팅을 종료한다고 밝혔습니다. 반면 메타는 청소년을 위한 AI 채팅 시간 제한 기능을 추가하고 자살 위험 콘텐츠를 발견하면 핫라인 링크를 표시합니다.
따라서 AI 사용자는 현실 관계를 유지하고 기술에 대한 건전한 회의적인 태도를 고려해야 합니다.
AI는 유용한 도구가 될 수 있지만 정신적인 지원은 여전히 가족 친구 및 커뮤니티가 필요합니다.