解決「氛圍編碼」亂象!Anthropic推出AI審核工具 鎖定邏輯錯誤
記者彭夢竺/編譯
隨著AI開發工具普及,開發者只需透過自然語言指令即可快速生成大量程式碼,但也導致軟體漏洞與安全性風險激增。為解決此問題,Anthropic於9日正式推出名為「Code Review」的審核工具,目的在將AI生成的程式碼進入正式庫前,先由AI進行嚴格把關。

處理海量「拉取請求」的企業利器
Anthropic產品負責人Cat Wu指出,Claude Code在企業端成長迅速,但產能大增也帶來了新的煩惱。由於AI產出程式碼的速度極快,導致開發流程中的「拉取請求」堆積如山,形成研發瓶頸。
該產品首波鎖定Uber、Salesforce及Accenture等大型企業客戶。Anthropic透露,Claude Code自推出以來,其運行率年營收已突破25億美元,企業用戶訂閱量自年初以來更成長了4倍。
更多科技工作請上科技專區:https://techplus.1111.com.tw/
多個AI助理並行分析 減少無謂干擾
為了避免開發者對於瑣碎的風格建議感到厭煩,Code Review採取了更為實用的審核方針。工具專注於抓出程式邏輯錯誤,而非微調撰寫風格,確保每一條AI建議都具備即時的可操作性。
系統會以顏色區分嚴重程度,紅色代表高風險,黃色為建議檢視,紫色則與既有舊代碼或歷史漏洞相關。該工具依賴多個AI助理並行工作,每個助理從不同維度分析代碼,最後由一個總結助理進行彙整與排序,去除重複項並提升準確度。
每筆審核約25美元 應對國安爭議
這項高級服務雖然效能卓越,但也因運算量大而價格不菲。
採代幣(Token)計費,根據程式碼複雜度,平均每筆審核成本約在15至25美元之間。就在產品發布同日,Anthropic對美國國防部提起了兩項訴訟,反擊先前被列為「供應鏈風險」的標籤,這也顯示該公司正全力衝刺民用企業市場。
此外,該工具可與GitHub無縫接軌,自動分析並直接在代碼行間留言,說明錯誤原因及建議修復方案。
Cat Wu表示,這款產品是因應市場強大需求而生,隨著工程師開發功能的門檻降低,對高品質審核的需求正以前所未有的速度成長。Anthropic希望藉此幫助企業在2026年後的技術賽道上,以更少的漏洞達成更快的開發循環。
資料來源:TechCrunch
![]()





