Claude Code 上线了一个挺有意思的新功能:AI Code Review。
简单理解就是——现在不只是 AI 帮你写代码了,还会再派一群 AI 来帮你审代码。
流程很简单:
你在 GitHub 提交一个 PR,Claude Code 会自动启动一组 Agent 去检查代码。不同的 Agent 分工不同,有的专门找逻辑 bug,有的看安全问,有的检查边界条件,还有一个步骤专门负责验证和过滤误报。最后把发现的问直接评论在对应代码行里。
最有意思的一点是,它不是只看你改了哪些 diff,而是把整个代码库当作上下文一起看。
这意味着很多跨文件、跨模块的依赖问也能被发现,这是很多传统 AI Code Review 工具做不到的。
Anthropic 内部测试的数据也挺夸张:
以前只有大概 16% 的 PR 能收到实质性的 review 评论,用了这个之后变成 54%。
尤其是那种 1000 行以上的大 PR,AI 平均能找到 7 个左右的问。这种大 PR 其实是人工最容易“随便看一眼就 approve”的地方。
现在的开发流程越来越像一个 AI 团队协作系统。
以前是:
人写代码 → 人审代码 → 人上线。
现在慢慢变成:
AI 写代码 → AI 审代码 → 人最后拍板。
人反而变成那个 最终负责的人类 supervisor。
@aigc1024
OpenClaw小龙虾🦞专属频道
@openclaw1024
简单理解就是——现在不只是 AI 帮你写代码了,还会再派一群 AI 来帮你审代码。
流程很简单:
你在 GitHub 提交一个 PR,Claude Code 会自动启动一组 Agent 去检查代码。不同的 Agent 分工不同,有的专门找逻辑 bug,有的看安全问,有的检查边界条件,还有一个步骤专门负责验证和过滤误报。最后把发现的问直接评论在对应代码行里。
最有意思的一点是,它不是只看你改了哪些 diff,而是把整个代码库当作上下文一起看。
这意味着很多跨文件、跨模块的依赖问也能被发现,这是很多传统 AI Code Review 工具做不到的。
Anthropic 内部测试的数据也挺夸张:
以前只有大概 16% 的 PR 能收到实质性的 review 评论,用了这个之后变成 54%。
尤其是那种 1000 行以上的大 PR,AI 平均能找到 7 个左右的问。这种大 PR 其实是人工最容易“随便看一眼就 approve”的地方。
现在的开发流程越来越像一个 AI 团队协作系统。
以前是:
人写代码 → 人审代码 → 人上线。
现在慢慢变成:
AI 写代码 → AI 审代码 → 人最后拍板。
人反而变成那个 最终负责的人类 supervisor。
@aigc1024
OpenClaw小龙虾🦞专属频道
@openclaw1024