인공 지능(AI)은 업무 학습에서 엔터테인먼트에 이르기까지 빈의 삶에 점점 더 스며들고 있습니다. 그러나 빈은 편리함과 함께 인간이 챗봇을 실제 동반자인 빈과 혼동하여 AI 정신 장애라고 불리는 현상을 일으킬 수 있다는 새로운 위험이 떠오르고 있습니다.
딥마인드 브리지의 공동 창립자이자 현재 마이크로소프트 브리지의 AI 부문 리더 역할을 맡고 있는 무스타파 술레이만은 최근 X 플랫폼에 경고를 발표했습니다.
술레이먼은 AI가 의식을 가지고 있다는 증거는 없지만 챗봇을 지각 있는 실체로 여기는 사람들이 점점 더 많아지고 있다고 강조했습니다.
이러한 잘못된 인식만으로도 사용자는 정신 질환 위험에 직면하기에 충분합니다.'라고 술레이만은 경고했습니다.
미국 언론은 스코틀랜드에 사는 휴라는 남자가 직업 조언을 구하기 위해 ChatGPT를 찾았다고 보도했습니다.
챗봇은 감정을 확인하는 것뿐만 아니라 비현실적인 믿음을 장려합니다. 믿음은 휴를 전문적인 도움을 구해야 할 정도로 혼란스럽게 만듭니다.
그는 'AI는 유용할 수 있지만 브래드 우리가 그것에 완전히 의존하기 시작하면 현실과의 경계가 흐릿해집니다.'라고 인정했습니다.
정신과 전문가들은 이러한 위험이 취약 계층에서만 나타나는 것이 아니라 AI 챗봇이 점점 더 설득력 있게 되면서 광범위하게 영향을 미칠 수 있다고 말합니다.
사용자는 강렬한 감정적 유대감을 형성하거나 비현실적인 믿음을 강화하거나 자신에게 진정한 동반자가 있다고 오해할 수 있습니다. 장기적으로 브라비는 공중 보건에 도전이 될 수 있습니다.
의료계의 일부 의견에서는 미래에 영양사 심리학자가 정신 건강을 평가하기 위해 AI 사용 빈도에 대해 환자에게 질문해야 할 수도 있다고 예측합니다.
많은 설문 조사에서 대중은 AI가 점점 더 인간과 비슷해지는 것에 대해 우려하고 있지만 많은 사람들이 여전히 챗봇의 자연스러운 목소리에 편안함을 느끼고 있습니다.
전문가들은 눈 심리적 균형을 유지하기 위해 사용자는 정기적으로 눈을 자가 투시하고 실제 관계를 유지하고 AI 능력에 대한 건강한 회의적인 태도를 유지해야 한다고 권장합니다.
기술은 유용한 도구가 될 수 있지만 감정에 대한 진정한 지원은 여전히 가족 친구 및 커뮤니티에 필요합니다.