프로그래밍에서 인공 지능 AI의 폭발적인 증가는 생산성이 급증하지만 인간의 통제 능력을 초과하는 소스 코드의 "홍수"를 동반하는 새로운 역설을 만들어내고 있습니다.
한 금융 서비스 회사에서 AI 프로그래밍 도구인 커서의 구현으로 코드 생산량이 월 25,000줄에서 250,000줄로 증가했습니다.
그러나 이것은 또한 검토해야 할 약 100만 줄의 코드를 수반하며, 이는 기존 검열 능력을 초과하는 막대한 양입니다.
응용 프로그램 보안 전문 기술 회사인 StackHawk의 CEO Joni Klippert에 따르면 코드 수가 빠르게 증가하는 것은 기업이 따라갈 수 없는 보안 위험이 증가한다는 것을 의미합니다.
이러한 추세는 OpenAI, Anthropic 또는 Cursor의 AI 도구가 폭발적으로 증가하면서 분명해졌습니다.
엔지니어뿐만 아니라 이제 모든 직원이 몇 시간 만에 소프트웨어를 만들 수 있습니다.
이는 혁신을 가속화하는 데 도움이 되지만 동시에 "프로그래밍 코드 과부하" 상황을 야기합니다.
기술 환경에서 많은 직원들이 이것을 "새로운 정상"으로 봅니다. AI는 각 코드 라인을 작성하는 대신 아이디어에 집중하는 데 도움이 됩니다. 그러나 단점은 검사, 오류 감지 및 안전 보장을 할 수 있는 충분한 능력을 갖춘 엔지니어의 수가 충분하지 않다는 것입니다.
기업들은 점점 더 고위 엔지니어, 특히 응용 보안 전문가를 찾고 있습니다.
구글의 설문 조사에 따르면 개발자의 90%가 업무에 AI를 사용하고 있습니다. 효율성이 크게 증가하면서 많은 기업들이 AI가 이전 업무량의 대부분을 대체할 수 있다는 이유로 인력을 감축하고 있습니다.
Meta의 기술 이사인 Andrew Bosworth에 따르면 한때 수백 명의 엔지니어가 필요했던 프로젝트는 이제 수십 명으로 완료할 수 있습니다.
이와 함께 소프트웨어를 자체 작성할 수 있는 시스템인 AI 에이전트의 등장은 개발 속도를 전례 없는 수준으로 끌어올리고 있습니다.
약간의 지침만 있으면 AI는 짧은 시간 안에 전체 프로그램을 생성하여 생성되는 코드 수가 기하급수적으로 증가할 수 있습니다.
그러나 문제는 양에만 국한되지 않습니다. 기업들은 AI가 생성한 코드에 오류가 발생했을 때 누가 책임을 져야 하는지에 대한 질문에 직면해 있습니다.
이전에는 프로그래머가 코드를 작성하여 오류를 수정했습니다. 이제 AI가 대부분의 제품을 생성함에 따라 책임 경계가 모호해졌습니다.
보안 위험도 예측하기 어려운 방식으로 증가합니다. 많은 엔지니어들이 AI 도구를 사용하기 위해 전체 소스 코드를 개인 기기에 다운로드해야 하므로 장치가 손실되거나 공격을 받을 경우 데이터 유출 위험을 무심코 초래합니다.
오픈 소스 분야에서는 상황이 훨씬 더 복잡합니다. 일부 프로젝트는 기여도가 급증했지만, 그 중 많은 부분이 AI가 생성한 코드이고 품질 관리가 부족합니다. 심지어 위험을 피하기 위해 외부와 폐쇄해야 하는 경우도 있습니다.
이에 대처하기 위해 기업들은 다시 AI 자체를 찾았습니다. 코드를 자동으로 검사하고 오류를 감지하며 위험도가 높은 부분을 우선시하기 위해 많은 새로운 도구가 개발되었습니다.
그럼에도 불구하고 전문가들은 이것이 대규모 전환의 초기 단계일 뿐이라고 평가합니다.
AI가 프로그래밍 능력을 계속 향상시키면서 과제는 더 빨리 코드를 작성하는 것이 아니라 기계가 생성하는 방대한 양의 코드를 제어, 이해 및 책임지는 방법입니다.