Code Review라는 제품은 Claude Code 플랫폼에 직접 통합되어 오류를 조기에 감지하고 소프트웨어 품질을 개선하는 것을 목표로 합니다.
소프트웨어 개발에서 프로그래머 간의 코드 검토는 오류를 감지하고 일관성을 보장하며 시스템 품질을 유지하는 데 중요한 역할을 합니다.
그러나 AI 기반 프로그래밍 도구의 등장으로 이 프로세스가 크게 바뀌었습니다. 많은 개발자들이 현재 자연어로 된 지침에서 코드를 생성하기 위해 AI를 사용하고 있으며, 이는 때때로 "감각적 프로그래밍"이라고 불리는 추세입니다.
개발 속도를 높이는 데 도움이 되지만 이 방법은 논리적 오류, 보안 위험 및 이해하기 어려운 코드 조각 발생 위험을 증가시킵니다.
AI가 단기간에 많은 양의 코드를 생성하면 코드 업데이트 요청 수(풀 요청이라고 함)도 급증하여 검열팀에 큰 압력을 가합니다.
Anthropic 제품 부서장인 Cat Wu 여사에 따르면 많은 기업 리더들이 AI가 생성한 푸시 요청이 효과적으로 테스트되도록 보장하는 방법에 대해 질문합니다.
Claude Code는 많은 푸시 요청을 생성하고 그것이 소프트웨어 릴리스 프로세스를 막는다는 것을 알게 되었습니다. Code Review는 이 문제를 해결하기 위해 구축되었습니다."라고 Cat Wu는 말했습니다.
새로운 도구는 풀 요청을 자동으로 분석하고 소스 코드에서 직접 리뷰를 제공하도록 설계되었습니다.
활성화 후 시스템은 GitHub와 통합되어 AI가 변경 사항이 공식 시스템에 삽입되기 전에 평가할 수 있습니다.
코드 리뷰는 형식적 오류나 프로그래밍 스타일에 집중하는 대신 소프트웨어에서 심각한 문제를 일으킬 수 있는 논리적 오류를 우선적으로 감지합니다. AI는 각 문제, 오류가 위험을 초래할 수 있는 이유를 자세히 설명하고 해결 방법을 제안합니다.
오류는 또한 가장 심각한 오류의 경우 빨간색, 고려해야 할 문제의 경우 노란색, 이전에 나타났던 오래된 소스 코드 또는 오류와 관련된 문제의 경우 보라색과 같은 색상으로 심각도에 따라 분류됩니다.
이를 수행하기 위해 Anthropic은 "다중 에이전트" 아키텍처를 사용합니다. 여러 AI 에이전트가 동시에 작동하여 다양한 각도에서 코드를 검사한 다음 합성 에이전트가 결과를 분석하고 중복을 제거하고 가장 중요한 오류를 우선 순위로 지정합니다.
논리적 오류 감지 외에도 코드 리뷰는 기본적인 보안 분석을 제공합니다. 기술 팀장은 기업의 내부 표준에 따라 추가 검사 규칙을 사용자 정의할 수 있습니다.
더 깊은 보안 요구 사항에 대해 Anthropic은 기업이 Claude Code Security라는 자체 제품을 사용할 수 있다고 밝혔습니다.
현재 Code Review는 Claude for Teams 및 Claude for Enterprise 서비스 패키지를 사용하는 고객을 위한 미리보기 형태로 구현되고 있으며, 특히 Uber, Salesforce 및 Accenture와 같은 대기업을 대상으로 합니다.
Anthropic에 따르면 서비스 사용 비용은 다른 AI 서비스와 마찬가지로 토큰으로 계산됩니다. 코드를 평가할 때마다 소스 코드의 복잡성에 따라 약 15~25 USD가 소요될 것으로 예상됩니다.
Anthropic은 AI가 점점 더 많은 프로그래밍 코드를 생성함에 따라 자동 검사 도구에 대한 수요도 급증할 것이라고 믿습니다. 회사는 Code Review가 기업이 소프트웨어를 더 빠르게 개발하는 데 도움이 될 뿐만 아니라 제품 출시 전에 오류 수를 크게 줄일 것으로 기대합니다.