OpenAI는 Atlas AI 브라우저에 대한 사이버 공격 방지 기능을 강화하기 위해 노력하고 있습니다. 그러나 그들은 또한 명령 삽입 공격(prompt젯이런) 즉 악성 지시를 수행하기 위해 AI 에이전트를 조작하는 공격 유형이 일반적으로 웹사이트나 이메일에 숨겨져 있다는 것을 인정합니다. 이는 단기간에 사라지지 않는 위험입니다. 이는 AI 에이전트가 개방형 인터넷 네트워크에서 작동할 때 안전 수준에 대한 질문을 제기합니다.
tang 악성 코드 삽입 공격은 온라인 사기 및 소셜 기술과 마찬가지로 tang은 완전히 해결하기 어렵습니다.'라고 che OpenAI는 최근 블로그 게시물에서 썼으며 tang은 회사가 끊임없는 공격에 대처하기 위해 Atlas의 방어 능력을 강화하는 방법을 자세히 설명합니다. 회사는 ChatGPT Atlas의 '타이터 모드'가 '보안 위협 표면을 확장'한다고 인정했습니다.
OpenAI-30 외에도 영국 국가 사이버 보안 센터(NCSC)는 이달 초 생성형 인공 지능 응용 프로그램을 대상으로 하는 알림 기반 코드 삽입 공격이 '전혀 완화되지 않을 수 있으며' 웹사이트가 데이터 유출의 피해자가 될 위험이 있다고 경고했습니다.
영국 정부 기관은 사이버 보안 전문가들에게 공격이 '억제'될 수 있다고 생각하는 대신 힌트에 기반한 코드 삽입 공격의 위험과 영향을 최소화할 것을 권고합니다.
OpenAI, 측은 '우리는 즉각적인 코드 주입을 장기적인 AI 보안 과제로 보고 있으며 이에 대한 방어 능력을 지속적으로 강화해야 할 것입니다.'라고 밝혔습니다.
이 불가능한 임무에 대한 회사의 해결책은 무엇입니까? 회사가 내부에서 새로운 공격 전략이 실제로 활용되기 전에 탐지하는 데 도움이 되는 초기 긍정적인 징후를 보여주고 있다고 주장하는 능동적인 신속 대응 주기입니다.
OpenAI는 즉각적인 악성 코드 공격 방지가 매우 어렵고 완전히 효과적이라고 강조하지만 실제 공격에 나타나기 전에 시스템 보안을 강화하기 위해 대규모 테스트와 더 빠른 패치 주기에 의존하고 있습니다.
OpenAI 대변인은 아틀라스의 보안 업데이트가 악성 코드 삽입 공격 성공 횟수를 크게 줄이는 데 기여했는지 여부를 밝히기를 거부했지만 회사는 출시 전부터 아틀라스의 빠른 악성 코드 삽입 공격에 대한 방어 능력을 강화하기 위해 제3자와 협력했다고 밝혔습니다.