newsence
The Pentagon’s culture war tactic against Anthropic has backfired

The Pentagon’s culture war tactic against Anthropic has backfired

MIT Technology Review·6 天前

This story originally appeared in The Algorithm, our weekly newsletter on AI. To get stories like this in your inbox first, sign up here. Last Thursday, a California judge temporarily blocked the Pentagon from labeling Anthropic a supply chain risk and ordering government agencies to stop using its AI. It’s the latest development in the month-long…

這篇故事最初發表於我們的 AI 每週通訊《The Algorithm》。若想第一時間在收件匣收到此類報導,請在此訂閱

上週四,一名加州法官暫時阻止了五角大廈將 Anthropic 標記為供應鏈風險,並禁止其命令政府機構停止使用該公司的 AI。這是這場持續一個月之久的紛爭的最新進展。而此事尚未塵埃落定:政府有七天的時間提出上訴,且 Anthropic 針對該定性的第二起訴訟也尚未宣判。在此之前,該公司在政府眼中仍是「不受歡迎人物」。

此案的利害關係——政府能在多大程度上懲罰一家不願配合的公司——從一開始就顯而易見。Anthropic 吸引了許多資深支持者,其中不乏出人意料的盟友,包括川普總統 AI 政策的前撰稿人

但法官麗塔·林(Rita Lin)長達 43 頁的意見書指出,這場本質上是合約糾紛的事件,原本根本不需要演變成如此瘋狂的局面。之所以會走到這一步,是因為政府無視了管理此類糾紛的現有程序,並透過官員在社群媒體上的發文煽風點火,而這些發文最終與政府在法庭上的立場相矛盾。換句話說,五角大廈想要一場文化戰爭(除了幾小時後爆發的伊朗實戰之外)。

根據法庭文件,政府在 2025 年的大部分時間裡都在使用 Anthropic 的 Claude 而未提出投訴,與此同時,該公司在品牌定位上小心翼翼,既標榜自己是專注於安全的 AI 公司,又贏得了國防合約。透過 Palantir 使用該系統的國防部員工被要求接受一份政府專用的使用政策條款,Anthropic 共同創辦人賈里德·卡普蘭(Jared Kaplan)表示,該政策「禁止對美國人進行大規模監控以及致命的自主戰爭」(卡普蘭向法院提交的聲明中未包含該政策的細節)。直到政府打算直接與 Anthropic 簽約時,分歧才開始出現。

令法官憤怒的是,當這些分歧公開化時,它們更多地表現為懲罰,而不僅僅是與 Anthropic 斷絕關係。而且它們有一種模式:先發推文,後找律師。

川普總統 2 月 27 日在 Truth Social 上的發文提到了 Anthropic 的「左翼瘋子」,並指示每個聯邦機構停止使用該公司的 AI。國防部長皮特·海格塞斯(Pete Hegseth)隨後也呼應了這一點,表示他將指示五角大廈將 Anthropic 標記為供應鏈風險。

這樣做需要部長採取一系列特定行動,而法官發現海格塞斯並未完成這些行動。例如,發給國會委員會的信函中提到,已評估過較不激進的步驟並認為不可行,但未提供任何進一步細節。法官寫道,政府還聲稱將其定性為供應鏈風險是必要的,因為 Anthropic 可能會實施「自殺開關」(kill switch),但其律師隨後不得不承認並無相關證據。

海格塞斯的發文還聲明:「任何與美國軍方有業務往來的承包商、供應商或合作夥伴,均不得與 Anthropic 進行任何商業活動。」但政府律師在週二承認,部長並無權力這樣做,並同意法官的看法,即該聲明「完全沒有任何法律效力」。

激進的發文也讓法官得出結論,認為 Anthropic 投訴其第一修正案權利受到侵犯是有充分理由的。法官在引用這些發文時寫道,政府「著手公開懲罰 Anthropic 的『意識形態』和『言論』,以及其不願妥協這些信念的『傲慢』」。

將 Anthropic 標記為供應鏈風險,本質上是將其識別為政府的「破壞者」,法官認為對此缺乏足夠證據。她在上週四發布了一項命令,暫停了這項定性,阻止五角大廈執行該定性,並禁止政府履行海格塞斯和川普所做的承諾。曾在川普政府負責 AI 政策、但撰寫簡報支持 Anthropic 的迪恩·波爾(Dean Ball)將法官週四的命令描述為:「對政府而言是一次毀滅性的裁決,法官發現 Anthropic 在關於政府行為違法且違憲的所有理論上,都極有可能勝訴。」

預計政府將對此裁決提出上訴。但 Anthropic 在華盛頓特區提起的另一宗訴訟也提出了類似指控,只是引用了管理供應鏈風險的法律中的不同條款。

法庭文件描繪出一個相當清晰的模式。官員和總統發表的公開聲明,與法律規定的此類合約糾紛應有的處理方式完全不符,而政府律師事後一直不得不為社群媒體上對該公司的抨擊編造理由。

五角大廈和白宮領導層知道,採取這種極端手段會引發法律戰;在政府於 3 月 3 日正式提交申請的前幾天,Anthropic 就在 2 月 27 日誓言要對抗供應鏈風險的定性。執意推行這項定性,意味著高層領導在伊朗戰爭爆發的前五天裡,至少可以說是分心了——他們一邊發動襲擊,一邊收集 Anthropic 是政府破壞者的證據,而這一切本可以透過更簡單的手段來與 Anthropic 斷絕關係。

但即使 Anthropic 最終獲勝,政府仍有其他手段將該公司排除在政府工作之外。例如,想要與五角大廈保持良好關係的國防承包商,現在幾乎沒有理由與 Anthropic 合作,即使它未被標記為供應鏈風險。

「我認為可以肯定的是,政府可以使用一些機制在不違法的情況下施加一定程度的壓力,」法律與 AI 研究所的高級研究員查理·布洛克(Charlie Bullock)表示。「這在某種程度上取決於政府投入多少精力來懲罰 Anthropic。」

從目前的證據來看,現任政府正投入高層的時間和精力來贏得一場 AI 文化戰爭。與此同時,Claude 對其運作顯然非常重要,以至於連川普總統都表示五角大廈需要六個月的時間才能停止使用它。白宮要求頂尖 AI 公司在政治上效忠並在意識形態上保持一致,但針對 Anthropic 的訴訟,至少在目前,暴露了其影響力的局限性。

如果您有關於軍方使用 AI 的資訊,可以透過 Signal 安全地分享(使用者名稱 jamesodonnell.22)。

https://technologyreview.com/2026/03/30/1134881/the-pentagons-culture-war-tactic-against-anthropic-has-backfired/