Anthropic 的 Claude Opus 4.6 在開源程式碼中發現 500 個零日漏洞

Hacker News·

Anthropic 的先進 AI 模型 Claude Opus 4.6 已成功在開源程式碼中識別出 500 個先前未知的零日漏洞。這項突破凸顯了 AI 在軟體安全和程式碼審計方面的日益增強的能力。

背景

Anthropic 最近發布其最新模型 Claude Opus 4.6,並聲稱該模型在開源軟體中發現了超過 500 個高風險的零日漏洞(Zero-day flaws)。這項消息引發了技術社群的高度關注,討論核心圍繞在 AI 驅動的漏洞挖掘技術是否已達到實用階段,以及這類宣傳背後是否存在過度包裝的嫌疑。

社群觀點

Hacker News 社群對此消息的反應呈現兩極化。質疑者認為這更像是一場行銷活動,缺乏透明的驗證數據。部分留言指出,Anthropic 提供的系統卡片與部落格文章內容過於簡略,僅列舉了少數如緩衝區溢位(Buffer Overflow)的案例,難以判斷這些漏洞的實際挖掘難度,或是是否經過精心篩選。此外,社群中也出現了對「OpenClaw」等特定專案普及程度的爭論,有人質疑這些所謂被修復的專案是否真的具有廣泛的經濟影響力,甚至懷疑部分討論中提到的專案名稱是否為 AI 幻覺或過度誇大的產物。

然而,資深安全專家 tptacek 的加入為討論帶來了不同的維度。他認為 LLM 在漏洞研究領域的潛力不容小覷,並指出漏洞挖掘本身就是一種高度依賴模式識別、擁有大量既有範例且具備閉環驗證特性的任務,這與 LLM 的強項完美契合。他反駁了那種將專業研究員使用 AI 尋找漏洞,與一般人利用 AI 產生大量低品質回報(Slop)混為一談的觀點。他強調,Anthropic 擁有頂尖的安全研究團隊與龐大資金,其產出的研究成果與隨機腳本小子(Script kiddies)的行為有本質上的區別。

討論中也觸及了 AI 尋找漏洞的具體邏輯。有留言分析了 Claude 在處理 Ghostscript 漏洞時的表現,發現 AI 雖然在最初的模糊測試與手動分析中失敗,但當它觀察到程式碼提交歷史中某處增加了邊界檢查時,便能靈敏地推論出其他未修改處可能存在類似漏洞。這種「大局觀欠缺但細節執行卓越」的特性,被認為是目前 AI 輔助安全審查的典型樣貌。

此外,社群也反思了這類技術對開發生態的長遠影響。有人擔憂這會演變成「製造問題再販售解決方案」的商業策略,但也有觀點認為,如果 AI 能持續且廉價地發現 C 語言等不安全語言中的漏洞,或許會減緩企業將舊有系統重寫為 Rust 等安全語言的壓力,進而改變軟體工程的投資優先順序。儘管目前對 Opus 4.6 的具體表現仍有爭議,但社群普遍共識是:AI 輔助的漏洞挖掘已不再是科幻,而是安全從業者必須正視的現實。

延伸閱讀

  • Anthropic 官方紅隊測試報告:詳細說明了 500 個零日漏洞的發現背景與部分案例。
  • Google Project Zero 的「Big Sleep」計畫:展示了 LLM 在實際漏洞挖掘中的前導研究。
  • Daniel Stenberg(curl 作者)關於 AI 提交漏洞回報的部落格文章:探討了開源專案維護者如何應對 AI 產生的安全報告。
  • Claude Code 與相關 API 狀態頁面:提供關於 Anthropic 開發工具可用性的即時資訊。

Hacker News

相關文章

  1. 為防禦者提供前沿網路安全能力

    2 個月前

  2. 藉由 Anthropic 紅隊測試強化 Firefox 安全性

    大約 2 個月前

  3. 我們指示 Opus 4.6 使用代理團隊來建構 C 編譯器

    3 個月前

  4. Claude 的程式碼能力正在被削弱

    2 個月前

  5. 隆重推出 Claude Opus 4.7

    6 天前