五角大廈威脅若 Anthropic 拒絕移除 AI 安全護欄,將對其進行封殺
美國國防部向 Anthropic 發出最後通牒,要求其移除軍事用途的 AI 限制,否則將面臨合約終止,並可能根據《國防生產法》被列入政府黑名單。
背景
美國國防部近日向人工智慧公司 Anthropic 發出最後通牒,要求其在期限內移除旗下 AI 模型 Claude 的安全護欄,否則將面臨合約終止甚至被列入政府黑名單的風險。五角大廈希望將該技術用於包括自主武器與國內監控在內的所有合法用途,但 Anthropic 堅持其安全紅線,認為目前的 AI 技術在操作武器上仍不夠可靠,且缺乏相關法律規範大規模監控行為。
社群觀點
Hacker News 的討論圍繞著企業倫理與國家權力之間的衝突展開。許多網友對 Anthropic 展現出的風骨表示讚賞,認為在當前科技巨頭紛紛向利益靠攏的環境下,Dario Amodei 堅持不參與自主武器與大規模監控的立場實屬難得。部分評論者將其與 OpenAI 進行對比,諷刺若 OpenAI 的員工還保有一絲脊樑,就應該要求執行長 Sam Altman 採取同樣的立場,而非在安全議題上妥協。然而,也有悲觀的觀點指出,這是一場金錢與道德的典型對決,而歷史經驗往往顯示前者會勝出。
討論中一個核心的爭議點在於政府祭出的手段。五角大廈威脅動用《國防生產法》或將 Anthropic 定義為「供應鏈風險」,這被視為一種極端的生存威脅。有留言分析,供應鏈風險標籤通常用於俄羅斯或中國等敵對勢力,若套用在一家美國本土公司身上,將導致所有與政府有業務往來的企業客戶被迫放棄 Anthropic 的產品。這種做法被形容為政府行使「暴力壟斷」的展現,證明了當國家利益與企業價值衝突時,掌握強制力的政府最終會是發號施令的一方。
此外,關於 AI 安全護欄的必要性也引發了技術層面的辯論。有網友質疑,市場最終是否會接受帶有護欄的產品,認為用戶可能更傾向於使用沒有限制、能完全執行指令的模型。但反對者則以聘僱助理為喻,指出沒人會想要一個毫無道德底線、願意執行任何惡行的人選。針對自主武器的討論更顯沉重,部分用戶擔心將 LLM 引入武器系統會迫使 AI 發展出「自我保存」的本能,這可能導致極其複雜且危險的連鎖反應。整體而言,社群對於五角大廈試圖強行移除 AI 安全限制的舉動感到不安,認為這正加速推動社會走向某種失控的烏托邦。
延伸閱讀
- Axios 關於國防部長 Hegseth 考慮切斷 Anthropic 合約的報導。
- Fortune 報導關於 OpenAI 與 Anthropic 在安全立場上的分歧。
- Hacker News 上關於 AI 安全與政府監管的相關討論串(ID: 47140734)。