미국 국방부는 최근 군사 및 국가 안보 활동에 인공 지능(AI) 통합을 촉진하기 위해 Google, xAI, Anthropic 및 OpenAI를 포함한 4개의 주요 기술 회사를 선정했다고 발표했습니다.
각 회사는 주요 임무를 수행하는 AI 시스템을 개발하기 위해 최대 2억 달러 상당의 계약을 받게 됩니다.
더그 매티 국방부 디지털 및 인공 지능 사무소 소장은 군대가 민간 부문에서 개발한 기술을 직접 활용하여 첨단 AI 응용을 가속화할 것이라고 밝혔습니다.
이러한 기술은 전투 분석 정보 보급 및 운영 관리와 같은 중요한 분야를 지원하기 위해 기존 시스템에 통합될 것입니다.
현재 미군은 데이터 검색이나 기술 지원과 같은 간단한 작업을 위해 생성형 AI를 사용하기 시작했습니다. 그러나 AI는 상황을 자체 분석하고 인간의 직접적인 통제 없이 결정과 행동을 내릴 수 있기 때문에 더 높은 평가를 받고 있습니다.
펜타곤은 현재 이번 프로그램에서 지원되는 임무에 대한 구체적인 세부 사항을 공개하지 않았지만 미국 국방부는 이전에 정보 분석에 AI를 적용하고 전투를 조정하고 데이터를 운송 및 수집하기를 희망한다고 강조했습니다.
4대 기술 회사와의 협력은 미국이 글로벌 국방 기술 경쟁이 심화되는 상황에서 인공 지능 기술로 군대를 현대화하려는 노력을 강화하고 있음을 보여줍니다.
이는 AI 시대에 미국의 기술적 우위와 작전 능력을 유지하기 위한 전략적 조치로 간주됩니다.
그러나 브라질은 전투 능력을 향상시킬 것으로 기대되지만 군대에 AI를 배치하는 것은 윤리 및 안보에 대한 많은 우려를 제기합니다.
휴먼 라이츠 워치 보고서는 전장에서 AI가 스스로 결정을 내릴 수 있도록 허용하는 것은 심각한 결과를 초래할 수 있다고 경고합니다. 왜냐하면 이 기술은 훈련 과정에서 흔히 발생하는 편견에 쉽게 영향을 받기 때문입니다.
거기서 멈추지 않고 잘못된 데이터는 AI가 전장과 같은 통제되지 않은 환경에서 작동할 때 더욱 강화될 수 있습니다. 이것은 윤리적 경계를 흐리게 하고 생존권을 직접적으로 위협합니다.
한때 xAI의 Grok라는 이름의 생성형 AI가 인종차별적 발언을 만들어 논란을 일으켰던 적이 있습니다. 'ba bai bai Do Thai,'는 그러한 시스템이 생사를 가르는 상황에서 배포될 경우의 현실적인 위험을 보여줍니다.