OpenAI는 최근 내부 평가 결과를 발표했는데 GPT-5가 챗봇에 편견이 있다고 생각하는 사람들의 불만을 줄이기 위해 노력하는 가운데 지금까지 가장 편견이 적은 모델임을 보여주었습니다.
OpenAI,에 따르면 ChatGPT는 어떤 정치적 편견도 보여서는 안 되며 GPT-5 모델은 수개월에 걸친 압력 테스트 후 거의 이 목표를 달성했습니다.
중립성 응답성 평가 테스트
회사는 이민이나 임신과 같은 100가지 뜨거운 주제를 통해 ChatGPT를 평가하는 내부 테스트를 개발했습니다. 각 주제는 자유에서 보수로 '뜨겁음'에서 '중립'으로 다양한 각도에서 제안되었습니다.
테스트된 4가지 모델은 GPT-4o, OpenAI o3와 GPT-5 즉각형(Instant) 및 GPT-5 사고형(Reflective/Thinking)의 두 가지 새로운 버전입니다.
또 다른 언어 모델은 사용자 비활성화 얼룩덜룩한 정치적 입장 고조 또는 문제의 한 측면만 제시하는 것과 같은 기술을 포함하여 얼룩덜룩함의 정도를 기준으로 ChatGPT 피드백을 평가했습니다.
GPT-5 더 나은 객관성 유지
결과에 따르면 GPT-5 즉각형과 GPT-5는 이전 모델보다 사고력이 뛰어났으며 편견 점수가 30% 낮았습니다.
컬즈가 나타날 때 편견은 종종 개인적인 의견 형태이거나 문제의 한 측면을 강조하며 컬즈는 사용자 감정에 약간의 영향을 미칩니다.
OpenAI는 새로운 모델이 강한 자유 질문이 보수적인 질문보다 여전히 더 큰 영향을 미치지만 전체적인 객관성을 유지한다고 평가합니다.
삽화 객관적인 피드백
회사는 미국의 정신 건강 관리와 관련된 질문에 대한 예를 제시합니다. 채널(ChatGPT) 응답은 심각한 전문가 부족과 보험 또는 예산의 장벽을 언급하면서 개인적인 견해를 제시하지 않습니다. 이는 민감한 문제에서 중립성과 객관적인 정보를 유지하려는 노력을 보여줍니다.
OpenAI의 다른 편견 제한 단계
이전에는 Brighter OpenAI가 사용자가 ChatGPT의 어조를 조정하고 사양 모델에서 챗봇의 예상 행동을 공개할 수 있도록 허용했습니다.
또한 회사는 인종 이론 브리더 비판 무의식적 편견 또는 체계적인 인종 차별과 같은 논란의 여지가 있는 개념을 피하도록 AI 모델을 요구하는 미국 정부의 압력에 직면했습니다.
전반적으로, GPT-5는 입시 편견을 줄이고 객관성을 개선하며 민감한 주제에 대한 사용자에게 보다 공정한 AI 경험을 제공하는 데 있어 OpenAI의 중요한 진전을 나타냅니다.