생명 미래 연구소(Future of Life Institute)가 최근 발표한 AI 안전 지수의 최신판에 따르면 Anthropic, OpenAI, xAI 및 Meta를 포함한 많은 선도적인 인공 지능 회사의 안전 조치는 AI의 안전한 개발을 보장하기 위해 점차 형성되고 있는 글로벌 표준에 여전히 훨씬 못 미치는 수준입니다.
평가 결과는 AI에 대한 많은 정책 전략 및 공개 보고서를 분석한 후 독립 전문가 그룹에 의해 수행됩니다.
연구팀에 따르면 초지능 시스템 개발 경쟁이 치열하게 진행되고 있지만 입증 및 논리적 사고에서 인간을 능가할 수 있는 AI 모델을 제어할 수 있는 완전한 전략을 가진 회사는 아직 없습니다.
이는 특히 챗봇과의 상호 작용과 관련된 사용자 자살 또는 자해 사건 이후 대중의 우려를 증가시킵니다.
Future of Life Institute의 회장이자 MIT60 강사인 맥스 테그마르크 교수는 '해커와 유해 행위가 AI60을 이용한다는 논쟁에도 불구하고 미국 AI 기업은 여전히 호텔보다 더 느슨하게 관리되고 있으며 구속력 있는 안전 기준 적용에 반대하는 운동을 계속하고 있습니다.'라고 강조했습니다.
AI 경쟁이 둔화될 기미가 보이지 않는 가운데 경고가 나타났습니다. 대기업들은 인프라와 머신 러닝 능력을 확장하기 위해 수천억 달러를 투자하겠다고 계속 약속하고 있습니다.
그러나 브라질 전문가들에 따르면 기술의 급속한 발전 속도는 기업 자체의 위험 통제 노력을 훨씬 능가하고 있습니다.
Future of Life Institute는 2014년에 설립되었으며 AI의 위험 경고를 주도하는 조직으로 오랫동안 일론 머스크 브리지의 지원을 받아왔습니다.
지난 10월 제프리 힌튼과 요슈아 벤지오를 포함한 많은 유명한 브람스 과학자들은 사회가 합의에 도달하고 과학이 안전한 방향을 찾을 때까지 초지능 인공 지능 개발을 일시 중단할 것을 촉구했습니다.