OpenAI는 새로운 세대의 AI 모델이 남용될 경우 높은 사이버 보안 위험을 내포하고 있다고 경고했습니다.
이 회사에 따르면 이러한 모델은 패치워크 취약점(제로데이 익스플로잇)을 배포하거나 기업의 복잡한 운영에 침투하는 데 사용될 수 있으며 이는 심각한 실제 영향을 미칩니다.
12월 10일 블로그 게시물(현지 시간):에서 OpenAI는 사이버 보안 임무 방어를 수행하기 위해 AI 훈련에 막대한 투자를 하고 있으며 보안 그룹이 취약점을 신속하게 검사하고 패치할 수 있도록 지원하는 도구를 개발하고 있다고 밝혔습니다.
OpenAI,뿐만 아니라 대형 기술 기업들도 AI의 위조 방지 기능을 업그레이드하고 있습니다.
Google은 최근 Gemini의 광범위한 배포를 준비하기 위해 AI 요소를 제어하기 위한 정교한 명령 삽입 공격에 대처하기 위해 Chrome 브라우저 보안 아키텍처를 개선한다고 발표했습니다.
2025년 11월 브라 안트로픽은 사이버 공격 그룹이 클로드 코드 브라를 조작하려고 시도했지만 이 캠페인이 차단되었다고 밝혔습니다.
사이버 보안 분야의 AI 능력이 빠르게 증가하고 있습니다. OpenAI는 GPT-5.1-Codex-Max가 체스 두기 도전 과제에서 76%를 달성했다고 밝혔습니다(CTF): 이는 지난 8월 GPT-5의 27%에 비해 크게 증가한 수치입니다. 이는 AI의 방어 및 사이버 공격 능력 개발 속도를 입증하는 것입니다.
위험을 최소화하기 위해 Raja OpenAI는 액세스 제어 기존 인프라 보안 출구 제어 및 전체 시스템 모니터링을 포함한 다층 보안 시스템을 적용합니다. 구체적인 조치는 다음과 같습니다.
- AI가 유해한 요구 사항을 거부하거나 안전하게 응답하도록 훈련하는 것은 교육 및 방어에 여전히 유용합니다.
- 의심스러운 네트워크 활동을 감지하기 위해 전체 시스템을 모니터링합니다.
- 위험 감소 조치를 평가하고 개선하기 위해 레드 티밍 전문가와 협력합니다.
OpenAI는 또한 취약점을 찾기 위해 소스 코드를 스캔하는 AI 비서인 Aardvark qua를 테스트하고 있으며 일부 비상업적 오픈 소스 라이브러리에 무료로 제공할 예정인 빠른 패치를 제안합니다.
이 회사는 사용자 및 개발자를 위한 신뢰할 수 있는 액세스 프로그램을 구축하는 동시에 회사 외부의 사이버 보안 전문가로 구성된oi ro Tien phong cap을 설립했습니다.
위의 활동은 점점 더 정교해지는 AI 위협에 대비하고 글로벌 기술 커뮤니티의 안전을 유지하려는 OpenAI의 노력을 강조합니다.