OpenAI는 인공 지능에서 발생하는 점점 더 복잡해지는 위험을 연구, 평가 및 관리하는 책임을 맡은 위험 준비 및 대응 담당 부서장을 채용하고 있습니다.
이 정보는 Sam Altman CEO가 X 소셜 네트워크 게시물에서 발표했으며, 이는 첨단 AI 기술의 예상치 못한 영향에 대한 회사의 관심이 점점 커지고 있음을 보여줍니다.
샘 알트먼에 따르면 현재 AI 모델은 몇 가지 실제 과제를 제기하기 시작하고 있습니다. 그중에서도 사용자 정신 건강에 대한 잠재적 영향과 AI 시스템이 컴퓨터 보안 분야에서 너무 능숙해져서 심각한 허점을 스스로 감지할 수 있는 능력이 주목할 만합니다. 이는 기술적 위험일 뿐만 아니라 사회 안전과도 직접적으로 관련이 있습니다.
Altman은 세계가 AI의 힘을 안전하게 활용할 수 있도록 공동 노력에 참여할 수 있는 유능한 후보자들을 촉구합니다.
그는 이중 목표는 사이버 보안 전문가에게 최첨단 도구를 장비하는 동시에 그러한 능력이 악당에게 이용당하는 것을 막는 것이라고 강조했습니다.
유사한 접근 방식은 생물학 및 자체 개선 가능한 시스템과 같은 다른 민감한 분야에도 적용됩니다.
작업 설명에 따르면 이 직책은 OpenAI의 준비 프레임워크를 구현하는 책임을 맡게 됩니다. 이것은 회사가 통제되지 않으면 심각한 손실을 초래할 수 있는 새로운 위험을 생성할 수 있는 첨단 AI 능력을 추적, 평가 및 준비하는 방법을 설명하는 프레임워크입니다.
OpenAI는 잠재적 위험을 연구하는 임무를 맡아 2023년에 이 그룹의 설립을 처음으로 발표했습니다.
이러한 위험은 온라인 사기, 사이버 공격과 같은 눈앞의 위협에서 더 추측적이지만 큰 결과를 초래하는 시나리오에 이르기까지 넓습니다.
그러나 1년도 채 안 되어 당시 준비 및 대응 부서장이었던 알렉산더 마드리가 AI 이론 연구에 집중하는 직책으로 옮겨졌습니다. 안전을 담당하는 다른 리더들도 회사를 떠나거나 새로운 역할을 맡았습니다.
최근 OpenAI는 준비 프레임워크를 업데이트하여 경쟁적인 AI 연구소가 유사한 보호 조치 없이 고위험 모델을 출시하면 안전 요구 사항을 조정할 수 있다고 밝혔습니다.
이러한 움직임은 경쟁 압력이 안전 기준을 약화시킬 수 있는지 여부에 대한 논쟁을 불러일으켰습니다.
게다가 ChatGPT를 포함한 생성 AI 채트봇은 정신 건강에 미치는 영향에 대해 점점 더 엄격한 감시를 받고 있습니다.
최근의 일부 소송에서는 AI 채팅봇이 잘못된 인식을 강화하고 사용자의 사회적 고립을 증가시킬 수 있다고 주장합니다. OpenAI는 감정적 스트레스 징후를 인식하고 사용자를 적절한 지원 소스에 연결하는 능력을 계속 개선하고 있다고 밝혔습니다.
준비 및 위험 대응 담당 부서장을 찾는 것은 OpenAI가 AI가 책임감 있게 개발 및 구현되도록 신속하게 혁신을 계속하는 방법이라는 큰 문제에 직면해 있음을 보여줍니다.