newsence

戰爭部將 Anthropic 列為供應鏈風險對象

Hacker News·大約 1 個月前

戰爭部已正式將人工智慧新創公司 Anthropic 指定為供應鏈風險,這標誌著政府對人工智慧基礎設施的審查正在加強。

背景

美國國防部(現被部分人士稱為戰爭部)近期將 AI 領先企業 Anthropic 列為「供應鏈風險」名單,並下令所有與軍方合作的承包商與供應商立即停止與該公司的商業往來。此舉源於 Anthropic 堅持在其 AI 模型 Claude 的軍事應用中保留「人類在迴路」(human-in-the-loop)的安全機制,拒絕讓 AI 擁有全自動化的殺傷決策權,進而引發政府以國家安全為由進行強力制裁。

社群觀點

Hacker News 的討論圍繞著政府權力擴張、企業倫理底線以及此舉對 AI 產業的長遠影響展開。許多網友認為,將一家美國本土公司列為通常保留給敵對國家的「供應鏈風險」,是一種極端的政治報復手段。評論者指出,政府的邏輯存在內在矛盾:一方面聲稱 Anthropic 是國安威脅,另一方面卻又威脅動用《國防生產法》強制該公司提供技術,這顯示政府實際上認為該技術對國家安全至關重要,而非真正的風險。

針對 Anthropic 的立場,社群展現了高度的敬意。多數留言者認為,在 Meta、Apple 與 OpenAI 等巨頭紛紛向政府壓力低頭之際,Anthropic 願意為了防止「自動化殺人機器」的出現而犧牲商業利益,展現了極罕見的企業原則。支持者認為,這將成為 Anthropic 的品牌勳章,使其在重視倫理的企業客戶、消費者以及歐洲市場中脫穎而出。甚至有觀點建議 Anthropic 應考慮將總部遷往歐洲,結合當地的監管環境與 ASML 等硬體優勢,打造一個獨立於美國軍事壓力之外的 AI 超級強權。

然而,也有部分討論從現實主義角度出發,理解國防部的立場。有網友指出,軍方無法容忍私人企業對軍事決策擁有實質的「否決權」,這涉及國家主權與指揮權的完整性。爭論的焦點在於,雙方為何無法在「防止 AI 誤判」與「軍事自主」之間達成共識。部分技術人員擔憂,若政府強制移除安全護欄,或因不滿現有模型而轉向開發缺乏監管的軍用 AI,可能會導致更危險的後果,例如 LLM 模型因幻覺而誤擊友軍。

此外,此事件引發了對市場連鎖反應的憂慮。評論者警告,這種行政干預將嚴重干擾 AI 產業的融資與上市環境。如果政府可以隨意將不聽話的企業列入黑名單,這將造成市場的極大不確定性,甚至可能引發政黨輪替後的報復性循環。對於 AWS 或 Google Cloud 等轉售 Claude 服務的雲端服務商而言,這項禁令可能導致其與國防部有業務往來的企業客戶被迫切割,進而對整個 AI 生態系造成實質的經濟衝擊。

延伸閱讀

  • Anthropic 執行長 Dario Amodei 針對與國防部溝通過程的正式聲明。
  • 關於川普政府要求聯邦機構停止使用 Anthropic 技術的相關報導。
  • 荷蘭史學家 Rutger Bregman 呼籲歐洲應藉此機會爭取 Anthropic 進駐的評論。
https://x.com/i/status/2027507717469049070