OpenAI(ChatGPT 개발사)는 초지능 AI 시스템의 출현이 통제되지 않으면 재앙적인 위험을 초래할 수 있다고 경고했습니다.
이 회사는 산업이 'AI 자체 개선'이라는 이정표에 더 가까워지고 있다고 강조했습니다. 이는 인간의 개입 없이 학습하고 자신을 업그레이드할 수 있는 능력입니다. 이는 결과를 통제 불능 상태로 만들 수 있습니다.
OpenAI는 어떤 조직도 안전한 제어 및 연결 능력을 입증하지 않은 초지능형 시스템을 배포해서는 안 된다고 주장합니다.
이는 세계가 새로운 모델이 점점 더 강력하고 예측하기 어려워지는 글로벌 AI 경쟁을 시작한 이후 회사의 가장 강력한 경고입니다.
OpenAI,에 따르면 잠재적인 위험은 정보 왜곡이나 눈 기술 남용에 그치지 않고 눈 생물학적 테러 개인 정보 침해 및 대규모 사이버 공격의 위험과 관련이 있습니다.
회사는 AI 실험실이 전체 산업을 위한 공통 방어 플랫폼을 구축하기 위해 새로운 안전 표준 및 위험 교훈에 대한 정보를 공유해야 한다고 권장합니다.
OpenAI는 또한 현재의 사이버 보안 모델과 유사한 AI 복구 생태계를 만들기 위해 정부 연구 기관 및 민간 부문 간의 협력을 목표로 하는 글로벌 모니터링 시스템을 제안합니다.
이 시스템에는 브라 암호화 소프트웨어 브라 안전 표준 비상 대응팀 및 오용 방지 메커니즘이 포함됩니다.
회사는 또한 국제 규제 기관에 짜깁기 법률과 분리된 규정을 피하고 대신 AI co에 대한 통합 법적 프레임워크를 마련하여 IS 혁신을 촉진하고 사용자를 위험으로부터 보호할 것을 촉구합니다.
OpenAI의 경고는 해리 왕자 메건 마클부터 미국 과학자 및 정치인에 이르기까지 많은 대중들이 슈퍼 인공 지능 개발을 일시 중단할 것을 촉구하는 상황에서 나타났습니다. 그들은 이 기술이 통제를 벗어나 인류의 생존을 위협할 수 있다고 생각합니다.
그럼에도 불구하고 AI 과학자 안드레이 카르파시는 AGI(일반 인공 지능)가 여전히 우리보다 10년 이상 부족하다고 생각합니다. 그는 현재 시스템이 지속적인 학습 능력이 부족하며 IS가 인간과 같은 지능을 달성하는 데 핵심 요소라고 말했습니다.
신중하면서도 낙관적인 관점에서 Singapore OpenAI는 2026년까지mia AI가 작은 과학적 발견을 할 수 있고 2028년까지mia가 더 중요한 발견을 달성할 수 있다고 예측합니다.
그러나 회사는 AI가 가져오는 경제-사회적 전환이 결코 쉽지 않을 것이며 현재의 경제-사회적 기반이 근본적으로 바뀌어야 할 가능성에 대비해야 한다고 인정합니다.
우리는 AI의 미래가 안전하고 전 인류에게 이익이 되도록 오늘 당장 행동해야 합니다.'라고 He OpenAI는 결론지었습니다.