newsence
Anthropic 推出代碼審查工具,應對 AI 生成代碼的爆發式增長

Anthropic 推出代碼審查工具,應對 AI 生成代碼的爆發式增長

Techcrunch·27 天前

Anthropic 在 Claude Code 中推出了 Code Review,這是一個多代理系統,能自動分析 AI 生成的代碼、標記邏輯錯誤,並幫助企業開發者管理日益增長的 AI 生成代碼量。

在程式設計領域,同儕回饋對於及早發現錯誤、保持代碼庫的一致性以及提高軟體整體品質至關重要。

「氛圍編程」(vibe coding)的興起——即使用 AI 工具接收自然語言指令並快速生成大量代碼——改變了開發者的工作方式。雖然這些工具加快了開發速度,但也引入了新的錯誤、安全風險和難以理解的代碼。

Anthropic 的解決方案是一款 AI 審查器,旨在捕捉人類可能遺漏的錯誤。這款名為 Code Review 的新產品於週一在 Claude Code 中推出。

Anthropic 產品負責人 Cat Wu 告訴 TechCrunch:「我們看到 Claude Code 的大幅增長,尤其是在企業內部。我們一直從企業領導者那裡聽到的一個問題是:既然 Claude Code 提交了大量的拉取請求(pull requests),我該如何確保這些請求得到高效的審查?」

拉取請求是開發者在將代碼變更併入軟體之前,提交變更以供審查的一種機制。Wu 表示,Claude Code 戲劇性地增加了代碼產出,使得拉取請求的審查成為交付過程中的瓶頸。

「Code Review 就是我們的答案,」Wu 說。

Anthropic 推出 Code Review 之際——該產品首先以研究預覽版的形式提供給 Claude for Teams 和 Claude for Enterprise 客戶——正值公司的關鍵時刻。

週一,Anthropic 針對國防部將其列為供應鏈風險的決定,向該部門提起了兩項訴訟。這場爭端可能會讓 Anthropic 更加依賴其蓬勃發展的企業業務,自今年年初以來,該業務的訂閱量已翻了四倍。據該公司稱,Claude Code 自發布以來的年化收入已超過 25 億美元。

Wu 說:「這款產品非常針對我們的大型企業用戶,例如 Uber、Salesforce、Accenture 等公司,他們已經在使用 Claude Code,現在需要幫助處理它協助產出的海量 [拉取請求]。」

她補充說,開發主管可以開啟 Code Review,讓其為團隊中的每位工程師預設運行。啟用後,它會與 GitHub 集成並自動分析拉取請求,直接在代碼上留下評論,解釋潛在問題並提供修復建議。

Wu 表示,重點在於修復邏輯錯誤而非風格問題。

「這非常重要,因為許多開發者以前看過 AI 自動化回饋,如果回饋不能立即執行,他們會感到困擾,」Wu 說。「我們決定純粹專注於邏輯錯誤。這樣我們就能捕捉到最需要優先修復的事項。」

AI 會逐步解釋其推理過程,概述它認為問題所在、為什麼可能有問題,以及如何潛在地修復它。系統會使用顏色標記問題的嚴重程度:紅色代表最高嚴重性,黃色代表值得審查的潛在問題,紫色代表與預先存在的代碼或歷史錯誤相關的問題。

Wu 表示,它通過依賴多個並行工作的代理(agents)來快速且高效地完成這項工作,每個代理從不同的角度或維度檢查代碼庫。最後一個代理會匯總並對提交內容進行排名,刪除重複項並優先處理最重要的內容。

該工具提供輕量級的安全分析,工程主管可以根據內部最佳實踐自定義額外的檢查。Wu 表示,Anthropic 最近推出的 Claude Code Security 則提供更深層次的安全分析。

Wu 說,多代理架構確實意味著這可能是一個資源密集型產品。與其他 AI 服務類似,定價基於 Token,成本取決於代碼的複雜程度——儘管 Wu 估計每次審查的平均成本約為 15 到 25 美元。她補充說,這是一種優質體驗,而且隨著 AI 工具生成越來越多的代碼,這也是必要的。

「[Code Review] 是源於巨大的市場需求,」Wu 說。「隨著工程師使用 Claude Code 進行開發,他們發現創建新功能的阻力 [減少了],同時對代碼審查的需求也大大增加。因此,我們希望藉此讓企業能夠以比以往更快的速度進行構建,且錯誤比以往任何時候都少。」

https://techcrunch.com/2026/03/09/anthropic-launches-code-review-tool-to-check-flood-of-ai-generated-code/