Elon Musk의 xAI 회사가 개발한 가상 비서인 Chatbot Grok,는 아돌프 히틀러와 유대인 공동체와 관련된 논란의 여지가 있는 정보가 포함되어 있다는 피드백을 받은 후 X 플랫폼(이전의 트위터)에서 일련의 게시물을 삭제해야 했습니다.
최근 피드백에서 'Curry AI Grok'은 논란의 여지가 있는 표현으로 아돌프 히틀러와 관련된 의견을 제시했습니다. 다른 내용들도 민감한 방향으로 유대인 공동체를 언급하며 'Curry'는 사용자 및 극단주의 콘텐츠 추적 조직의 반응을 불러일으켰습니다.
이 사건은 편견의 정확성과 민감한 주제에서 콘텐츠를 생성하는 능력에 대한 우려를 불러일으켰습니다. 그록이 편견적인 콘텐츠에 대한 논쟁에 휘말린 것은 이번이 처음이 아닙니다. 이전에도 그라 5월에 이 챗봇은 대화 내용이 이 주제와 관련이 없음에도 불구하고 남아프리카 공화국에서 백인이 불공정하게 대우받는다는 가설을 언급하면서 논란을 일으켰습니다.
xAI 측은 플랫폼에 게시되는 위반 콘텐츠를 방지하기 위해 새로운 통제 조치를 시행했다고 밝혔습니다. 회사는 현재 오류를 줄이고 피드백을 개선하기 위해 모델을 계속 조정하고 있습니다.
극단주의 행위를 전문적으로 추적하는 조직인 ADL 찬다는 우려를 표명하고 AI 개발 회사가 모델이 생성하는 콘텐츠를 감시하는 데 더 책임감을 가져야 한다고 촉구했습니다.
2022년 말 ChatGPT 출시 이후 이후 많은 인공 지능 모델이 개발되어 다양한 분야에서 AI 응용 물결을 촉진하는 데 기여했습니다. 그러나mia는 빠른 확산과 함께 AI가 생성하는 콘텐츠를 제어하는 능력이 점점 더 관심의 대상이 되고 있습니다.
그록 챗봇 관련 사건은 AI 시스템의 출력을 모니터링하는 데 어려움이 있음을 보여줍니다. 특히 사용자 수가 많은 플랫폼에 통합되어 일상적인 정보 흐름에 직접적인 영향을 미칠 때 더욱 그렇습니다.
모델이 자동 응답하도록 프로그래밍되어 있지만 검열 과정에서 인간의 역할 즉 평가 및 적시 개입은 여전히 오해의 위험을 최소화하는 데 핵심적인 역할을 합니다.