Anthropic 发布了 Claude Code Review 功能,该系统在开发者提交 Pull Request(PR)时自动启动 多个 AI 代理组成的审查团队,对代码进行并行分析并生成结构化审查结果。
该功能目前以 Research Preview(研究预览) 形式在 Claude Team 与 Enterprise 版本中开放测试。
Claude Code Review 并不是单一模型执行审查,而是采用 多 Agent 协作架构。当开发者打开 PR 时,系统会自动启动一个 AI 审查流程。
整体流程如下:
PR 打开
↓
多个审查 Agent 并行扫描代码
↓
发现潜在缺陷
↓
交叉验证结果
↓
过滤误报
↓
按严重程度排序
↓
生成最终审查报告
在完成分析后,系统会提供两种输出形式:
1. 总结性评论
在 PR 讨论区生成一条综合审查评论,概括主要问题与建议。
2. 代码内联标注
在具体代码行上添加评论,指出问题位置与修复建议。
这种形式与人工代码审查的工作流程基本一致。
系统会启动多个 AI 代理分别执行不同任务:
代理发现问题后不会立即报告,而是进入 验证阶段:
发现问题
↓
其他 Agent 验证
↓
确认有效性
↓
降低误报
这一机制的核心目标是 减少 false positives(误报)。
最终系统会按照 问题严重程度进行分级排序,例如:
开发者可以优先处理影响最大的缺陷。
Claude Code Review 已经在 Anthropic 内部的大多数 PR 中使用,并进行了数月测试。
测试结果显示:
PR 审查覆盖率显著提高
这意味着大量 PR 在提交后能够得到更系统的检查。
在实际使用中:
误报率非常低
说明多 Agent 交叉验证机制在减少误报方面较为有效。
对于规模较大的代码提交(超过 1000 行代码),Claude Code Review 表现出较高的问题发现率。
测试数据:
这些问题包括:
Claude Code Review 采用 按 token 使用量计费。
由于系统会进行深度分析,因此成本高于简单的自动化检查工具。
平均成本:
费用主要取决于:
相比轻量级工具,该系统更侧重 深入代码分析。
Claude Code Review 的设计思路与传统 CI 工具不同。
传统工具通常依赖:
而 Claude Code Review 更接近 智能代码审查系统:
| 传统工具 | Claude Code Review |
|---|---|
| 规则驱动 | AI 推理 |
| 单次扫描 | 多 Agent 迭代 |
| 静态检查 | 语义理解 |
| 无上下文 | 项目级分析 |
这种方式能够发现 更复杂的逻辑问题。
Claude Code Review 代表了一种新的开发流程:
开发者提交 PR
↓
AI 审查团队
↓
人工工程师复核
这种模式将 AI 从简单的代码补全工具,扩展到 软件工程质量控制环节。
随着模型推理能力的提升,AI 代码审查可能逐渐成为开发流程中的标准步骤。
未来的开发流程可能会变成:
AI 写代码
AI 审查代码
人类工程师做最终决策
Claude Code Review 的推出,标志着 AI 在软件工程生命周期中的角色正在进一步扩大。