코넬 대학교(미국)의 새로운 연구에 따르면 ChatGPT와 같은 인공 지능(AI) 모델은 인터넷에서 스팸 콘텐츠에 자주 노출되면 '뇌 기형' 상황 즉 사고력과 이해력이 감소하는 추세를 겪을 수 있습니다.
연구팀은 'LLM은 ~에 뇌 장애를 일으킬 수 있다'라는 제목의 과학 논문에서 '웹의 스팸 워드는 대규모 언어 모델(LLM)에 대한 장기적인 인지 저하를 유발한다'고 경고했습니다.
이것은 LLM이 ChatGPT, Gemini, Claude 또는 Copilot과 같은 유명한 챗봇의 플랫폼이라는 점에서 우려스러운 발견입니다.
과학자들은 소셜 네트워크 X60에서 수집한 데이터를 사용하여 Llama 3 및 Qwen 2.5와 같은 모델을 테스트 훈련했다고 밝혔습니다. 여기에는 짧은 게시물 조회수를 높이는 게시물 빠르게 확산되는 게시물 및 많은 허위 주장이 포함됩니다.
결과에 따르면 쓰레기 콘텐츠로 육성된 모델은 사고력 테스트에서 정확도가 74프레다9%에서 57프레다2%로 현저히 감소했습니다.
특히 브라질의 맥락 이해 및 정보 연결 능력도 급격히 감소하여 브라질은 84 bat4%에서 52 bat3%로 감소했습니다. 다시 말해 브라질 이 AI는 너무 많은 혼합된 데이터를 처리해야 할 때 세상을 오해하기 시작하고 브라질은 진실을 반복하거나 왜곡합니다.
뿐만 아니라 '브래드' 모델은 연구팀이 '브래드' 사고방식을 무시하는 현상 즉 '브래드' 주장의 일부 단계를 무시하여 피드백이 피상적이거나 왜곡되는 현상을 나타냅니다.
더 심각하게는 이 AI는 자기애(자신을 높이는 것) 또는 반사회적 성향과 같은 특징을 개발합니다. 이는 인간의 인격 장애 증상과 유사합니다.
더 높은 품질의 데이터로 재교육하여 조정하면 모델의 추론 능력이 향상되지만 원래 수준으로 돌아갈 수는 없습니다.
연구자들은 AI의 '뇌 퇴행성 질환'을 예방하기 위해 세 가지 통제 단계를 제안합니다.
1. LLM의 인지 능력에 대한 정기적인 평가.
2. 사전 교육 과정에서 데이터 품질을 엄격하게 관리합니다.
3. 불일치된 콘텐츠가 빠르게 확산되는 방식을 더 깊이 연구하면 머신 러닝 모델의 행동을 재구성할 수 있습니다.
세계가 정보 검색 콘텐츠 제작 및 의사 결정을 위해 AI에 점점 더 의존하는 상황에서 이 발견은 인간이 자신이 만든 데이터 환경을 정리하지 않으면 인공 지능조차도 브라 네트워크 쓰레기에 면역될 수 없다는 경고입니다.