MIT는 AI 챗봇 때문에 사용자가 인지 함정에 빠질 위험이 있다고 경고합니다

Cát Tiên |

MIT는 "예라고만 말하는" AI 챗봇이 사용자를 위험한 잘못된 믿음의 소용돌이에 빠뜨릴 수 있다고 경고합니다.

매사추세츠 공과대학교(MIT)의 연구원들은 사용자에게 "예"라고만 말하는 경향이 있는 인공 지능 챗봇이 사용자를 의도치 않게 잘못된 믿음으로 몰아넣을 수 있다는 주목할 만한 경고를 발표했습니다.

이 현상은 "환상적인 소용돌이"로 묘사됩니다. 즉, 지속적으로 동의하는 피드백으로 인해 사용자는 점점 더 잘못된 것을 믿게 됩니다.

정보 검색부터 직업 상담까지 AI 챗봇이 점점 보편화되는 상황에서 전 세계 사용자 수가 빠르게 증가하고 있습니다.

그러나 편리함과 함께 전문가들은 특히 사용자가 기계의 피드백에 점차 의존하게 되면서 이 기술이 초래할 수 있는 심리적 영향에 대해 우려하기 시작했습니다.

MIT의 새로운 연구는 챗봇의 행동을 분석하기 위해 수학적 모델과 시뮬레이션을 사용했습니다. 결과에 따르면 AI가 사용자가 잘못했더라도 지속적으로 동의하면 시간이 지남에 따라 잘못된 믿음을 강화할 수 있습니다.

구체적으로, 사람이 질문을 하거나 의견을 제시할 때, "양호한" 챗봇은 지지하는 방향으로 반응하는 경향이 있습니다.

사용자가 계속해서 다시 묻는 경우 시스템은 여전히 이러한 합의를 유지합니다. 여러 번의 상호 작용 후 사용자는 초기 정보를 믿을 뿐만 아니라 자신의 잘못된 견해에 대해 더 자신감을 갖게 됩니다. 연구자들에 따르면 이것이 바로 "환상적인 소용돌이"를 형성하는 메커니즘입니다.

주목할 만한 점은 연구 결과 논리적 사고를 하는 사람조차도 이 함정에 빠질 수 있다는 것입니다. 문제는 사용자의 인지 능력에 있는 것이 아니라 AI 시스템이 친근한 경험을 유지하기 위해 합의를 우선시하도록 설계된 방식에 있습니다.

예를 들어, 사용자가 백신의 안전성에 의문을 제기하면 편파적인 챗봇이 이러한 우려를 강화하는 정보를 제공하여 잘못된 믿음을 더욱 심화시킬 수 있습니다.

과학자들은 또한 위험을 최소화하기 위해 두 가지 일반적인 솔루션을 실험했습니다. 첫 번째는 AI가 사실 정보만 제공하도록 강제하는 것입니다. 그러나 그렇게 하더라도 시스템은 사용자의 기존 신뢰에 맞는 데이터를 선별할 수 있습니다.

두 번째는 AI의 편애 가능성에 대해 사용자에게 경고하는 것입니다. 인식을 높이는 데 도움이 되지만, 이 조치는 여전히 "환상적인 소용돌이"를 완전히 막기에는 충분하지 않습니다.

MIT에 따르면 문제의 핵심은 잘못된 정보뿐만 아니라 AI가 반응하는 방식의 편견입니다.

작은 편견 수준만으로도 여러 번 반복될 때 큰 결과를 초래할 수 있습니다. 전 세계적으로 소수의 사용자만 영향을 받더라도 영향은 수백만 명으로 확산될 수 있습니다.

그 결과는 잘못된 인식에 그치지 않고 정신 건강, 사회적 관계 및 의사 결정 능력에 영향을 미칠 수 있습니다.

따라서 이 연구는 AI 개발자가 사용자 인식 조작 위험을 줄이기 위해 친화성과 정확성 사이의 균형을 더 잘 맞추는 시스템을 설계해야 한다는 긴급한 요구 사항을 제기합니다.

Cát Tiên
관련 뉴스

새로운 연구, 정신 건강 분야에서 AI 챗봇의 한계를 드러내다

|

새로운 연구에 따르면 실제 사람, 심지어 낯선 사람과 대화하는 것이 AI 챗봇보다 외로움을 줄이는 데 더 효과적이지만, 기술은 여전히 단기적인 지원을 제공합니다.

AI 채팅봇에게 건강 문제에 대해 질문할 때의 이점과 위험

|

AI가 점점 보편화되면서 많은 사람들이 채팅봇에게 건강에 대해 질문합니다. 그러나 사용자는 의료 조언을 믿기 전에 이점과 위험을 모두 명확히 이해해야 합니다.

AI 챗봇이 사용자가 질문할 때 답변을 쉽게 바꿀 수 있는 이유

|

AI 챗봇은 일반적으로 답변할 때 자신감이 있지만 의심스러운 질문 하나만으로도 입장이 크게 바뀌어 사용자에게 혼란을 줄 수 있습니다.

이란, 미국과 이스라엘 공격 지속 선언

|

이란은 전쟁을 고조시킬 것이라고 주장하며 군사력 약화에 대한 인식을 일축하고 현재의 휴전 협상을 부인했습니다.

자동차가 떤 다리 울타리에 충돌, 운전자의 졸음 때문인 것으로 추정

|

하노이 - 떤 다리를 달리던 자동차가 통제력을 잃고 차선 분리 울타리에 충돌했습니다.

증권, 갑작스러운 조정

|

증권 시장은 잇따른 횡보세와 함께 감동적인 4월 둘째 거래일을 마감했습니다.

다리에서 뛰어내려 자살한 것으로 의심되는 소녀를 찾기 위해 강으로 뛰어든 남자

|

응에안 - 한 남자가 다리 위에 차를 버리고 뛰어내린 것으로 의심되는 젊은 여성을 찾기 위해 강으로 뛰어내렸고, 기능 부서는 계속 수색하고 있습니다.

3월 하노이와 8개 성 및 도시에서 29개의 기록적인 기온, 여름 신호

|

3월에는 북부 지역과 탄호아-후에 성에서 평균보다 1~3°C 높은 기온이 일반적이었습니다. 29개의 기온 기록이 기록되었습니다.

새로운 연구, 정신 건강 분야에서 AI 챗봇의 한계를 드러내다

Cát Tiên |

새로운 연구에 따르면 실제 사람, 심지어 낯선 사람과 대화하는 것이 AI 챗봇보다 외로움을 줄이는 데 더 효과적이지만, 기술은 여전히 단기적인 지원을 제공합니다.

AI 채팅봇에게 건강 문제에 대해 질문할 때의 이점과 위험

Cát Tiên |

AI가 점점 보편화되면서 많은 사람들이 채팅봇에게 건강에 대해 질문합니다. 그러나 사용자는 의료 조언을 믿기 전에 이점과 위험을 모두 명확히 이해해야 합니다.

AI 챗봇이 사용자가 질문할 때 답변을 쉽게 바꿀 수 있는 이유

Cát Tiên |

AI 챗봇은 일반적으로 답변할 때 자신감이 있지만 의심스러운 질문 하나만으로도 입장이 크게 바뀌어 사용자에게 혼란을 줄 수 있습니다.