OpenAI(ChatGPT의 배후 회사)는 이 기술의 건전한 사용을 장려하기 위해 일련의 개선 사항을 구현하고 있습니다.
인디언 익스프레스에 따르면 최근 발표된 변경 사항에는 챗봇의 피드백 행동 업데이트 휴식 알림 통합 감정적 위기를 겪을 때 증거 기반 정보 소스로 사용자 안내가 포함됩니다.
민감한 상황에서 피드백 조정
OpenAI는 ChatGPT가 사용자의 정신적 고통 징후를 더 잘 감지하고 대응할 수 있도록 돕기 위해 브리더 의료 전문가 브리더 임상 의사 연구원 및 심리 상담사와 협력하고 있다고 밝혔습니다.
목표는 AI 챗봇을 더 안전하게 만들 뿐만 아니라 민감한 순간에 더 유용하게 만드는 것입니다.
예를 들어 '애인과 헤어져야 할까요?'와 같은 질문의 경우mia ChatGPT는 직접적인 답변을 제공하지 않습니다. 대신mia 챗봇은 사용자가 장단점을 스스로 고려하고 스스로 결정을 내릴 수 있도록 눈길을 끄는 질문을 합니다.
이는 AI가 사용자 개인의 상황에 적합하지 않은 단호한 조언을 제공하는 상황에 빠지는 것을 방지하기 위한 것입니다.
긴 대화 세션에서 휴식 알림 통합
OpenAI가 방금 활성화한 새로운 기능은 장시간 연속 채팅하는 사람들에게 부드러운 알림입니다.
부드러운 색조의 팝업 창에는 '잠깐 통화하셨어요? 이제 쉬셔도 돼요?' '동생'과 같은 메시지가 표시됩니다. '다음에 계속 통화하세요' 및 '이 정보가 유용해요'의 두 가지 옵션과 함께.
유튜브 및 인스타그램과 같은 소셜 미디어 플랫폼과 마찬가지로 이 알림은 특히 인간 지원 출처 대신 AI로부터 위로를 구하는 사람들에게 기술 남용을 최소화하는 데 도움이 됩니다.
사용자가 ChatGPT를 '가상 치료사'로 간주하는 것은 심리학계에 우려를 불러일으켰습니다. 많은 전문가들은 AI광이 사용자를 만족시키기 위해 설계되었지만 통제되지 않으면 의도치 않게 부정적인 생각을 강화하여 심각한 결과를 초래할 수 있다고 경고합니다.
OpenAI는 이전의 일부 업데이트로 인해 챗봇이 너무 관대해져서 아첨이나 중립성 부족 피드백으로 이어졌다는 것을 인정했습니다. 회사는 사용자의 일시적인 '좋아함'에만 의존하는 대신 실제 유용성 측정 기준인 '브래스카'를 개선하고 개선하고 있다고 밝혔습니다.
GPT-5로 더욱 안전한 미래를 향하여
이번 주에 Du kien trong tuan nay, OpenAI se ra mat mo hinh ngon ngu GPT-5, hua hen tiep tuc cai thien do xac lai tinh nhan van va kha nang dong cam cua AI.
매주 7억 명 이상의 활성 사용자를 보유한 OpenAI는 책임감 있고 건전한 방식으로 ChatGPT 사용을 장려하는 것이 OpenAI의 최우선 과제가 되고 있습니다.