戰爭部將 Anthropic 列為供應鏈風險對象
戰爭部已正式將人工智慧新創公司 Anthropic 指定為潛在的供應鏈風險,這標誌著政府對人工智慧基礎設施的審查日益嚴格。
背景
美國國防部(現被稱為戰爭部)近期將人工智慧公司 Anthropic 列為「供應鏈風險」,並禁止所有與聯邦政府合作的承包商使用其技術。此舉源於 Anthropic 拒絕移除其模型 Claude 中的安全限制,特別是針對「全自動化殺戮機器人」與「大規模監控」的紅線規範,導致雙方在軍事應用權限上陷入僵局。
社群觀點
Hacker News 的討論圍繞著政府權力濫用、企業倫理以及地緣政治競爭展開。多數評論者對政府的舉動感到震驚,認為將一家美國本土公司標記為「供應鏈風險」是前所未有的極端手段。網友指出,這種標籤通常保留給敵對國家,而政府一方面稱 Anthropic 為安全威脅,另一方面又威脅動用《國防生產法》強制其移除安全限制,這種邏輯顯然自相矛盾:如果 Claude 是風險,為何又被視為國家安全不可或缺的關鍵技術?
許多人認為這是一場政治勒索,旨在懲罰不願服從的企業。有觀點指出,這反映了現任政府對「絕對服從」的要求,而非理性的政策討論。部分網友將此與 Nvidia 的案例對比,提到 Nvidia 曾因支付高額出口稅或政治捐款而獲得出口豁免,暗示這類行政命令背後可能存在利益交換或政治站隊。此外,社群對 Anthropic 堅守原則表示讚賞,認為拒絕讓 AI 具備自主殺戮能力是正確的倫理選擇,但也擔心這會導致 Anthropic 在商業競爭中失利,特別是當 xAI 的 Grok 被視為潛在的替代者,可能藉此機會全面接管政府與國防市場。
然而,也有少數聲音理解國防部的立場。支持者認為,軍方不能接受關鍵技術受制於私人公司的道德規範,如果 AI 系統在戰場關鍵時刻因「安全限制」拒絕執行指令,將構成實質的國防風險。部分討論則轉向更深層的擔憂,認為如果美國公司因倫理限制而縮手,敵對國家可能毫無顧忌地開發自主武器,最終導致美國在軍事科技競賽中落後。
最後,社群對此事件的長期影響感到悲觀。有人預測這將引發 AI 產業的動盪,甚至導致人才外流至歐洲,因為歐洲可能更歡迎重視安全與倫理的實驗室。同時,也有工程師分享了在政府部門內部的觀察,指出過度依賴 AI 生成代碼(如 Claude Code)來修復基礎設施可能帶來的系統性風險,若 AI 產出的代碼缺乏人類審核且只有 AI 能理解,一旦供應鏈被切斷,後果將不堪設想。
延伸閱讀
- Anthropic 執行長 Dario Amodei 針對與戰爭部討論過程的正式聲明:https://www.anthropic.com/news/statement-department-of-war
- 紐約時報關於 Anthropic 在五角大廈機密系統運作的報導:https://www.nytimes.com/2026/02/27/technology/defense-department-anthropic.html
- 國防部長 Pete Hegseth 關於 Grok 進入機密網絡的相關公告。