三份合約的故事:Anthropic 與戰爭部之間的衝突
這篇文章分析了 Anthropic 與美國戰爭部之間因合約談判而升級的衝突,重點討論了國家安全需求與人工智慧安全紅線之間的緊張關係。
週五,戰爭部長(Secretary of War)皮特·海格塞斯(Pete Hegseth)企圖將 Anthropic 標記為供應鏈風險並致力於「企業謀殺」的行為,背後有多種動機。
從表面上看,這場衝突是關於三份合約及其相關合作關係的故事。
-
Anthropic 於 2025 年與戰爭部(DoW)簽署的合約。
-
Anthropic 當時正與戰爭部談判的新合約,該合約本應修改為有利於戰爭部,但雙方無法達成共識。
-
OpenAI 正在談判並與戰爭部簽署的合約,根據 OpenAI 的說法,該合約已修改為有利於 OpenAI,因此未來可能還會進一步修改。
合約與談判內容需要保密,因此我們掌握的細節有限,尤其是公開分享的細節非常少。
但我們確實知道很多,而且比昨天早上知道的要多得多。
這篇文章將梳理我們對這三份合約的了解。
欲了解更多細節和來源,特別是針對各種錯誤或誤導性主張與看法的詳細反駁,請參閱昨天的長篇版本。該篇貼文對我的資訊來源使用了非常謹慎的限定詞。
本篇為簡短版本,旨在進行總結。
我堅信,如果冷靜的人能佔上風,局勢仍有挽回的餘地。過去一週的言論非常不幸,但可以收回。
但我也堅信,截至撰寫本文時,我們尚未脫離最壞結果的險境,包括潛在的謀殺 Anthropic 的企圖。我擔心政府方面有人正積極運作以促成這一結果,這直接違背了美國總統(POTUS)以及大多數戰爭部和行政部門官員的意願,這些人並不關心或不理解如果這種情況發生,對美國造成的嚴重後果。
Anthropic 與戰爭部的原始合約
我們無法直接獲取 Anthropic 原始合約的任何條文。我推測,在未經戰爭部許可的情況下,他們不分享這些條款是非常明智的。
這使得情況變得困難,因為細節非常重要。
根據各種公開和私下的來源,以下是我對該合約及合約下活動有信心的內容。
特別注意,Anthropic 確實擁有一套客製化的安全堆疊(safety stack),他們已經為此進行了長期的廣泛工作,包括模型拒絕、外部監控分類器和前線部署工程師(FDEs)。
-
Anthropic 去年與國防部(現為戰爭部)簽署了一份高達 2 億美元的合約。
-
當時,皮特·海格塞斯與現在一樣擔任國防部長。他表示同意。
-
該協議是為了讓 Claude 部署在機密網絡上。
-
根據與 Palantir 的合約,也提供了存取權限。
-
Anthropic 創建了 Claude Gov,作為機密網絡的特殊模型。
-
Claude Gov 改進了對機密材料的處理,並針對與國家安全工作相關的各種技能和能力進行了客製化。
-
Claude Gov 擁有一套安全堆疊。Claude Gov 並非一個「僅限提供幫助(helpful only)」的模型。
-
Claude Gov 的安全堆疊包括模型拒絕。
-
Claude Gov 的安全堆疊包括外部監控分類器,可以直接拒絕請求,或標記請求以供後續分析。
-
Anthropic 派駐了前線部署工程師(FDEs)協助系統部署,並能夠監控查詢並確保安全堆疊的運作。
-
我們不知道合約條文是否確保了他們可以這樣做,或者他們只是被允許這樣做,因為他們理所當然應該這樣做。
-
Anthropic 在合約中明確寫入了紅線,包括禁止國內大規模監控,以及禁止在沒有人類參與決策鏈(human in the kill chain)的情況下使用自主武器。
-
這一切之所以成為可能,是因為 Anthropic 將此視為優先事項(以 OpenAI 等其他公司未曾採用的方式),以協助國防。
-
Claude Gov 是目前唯一成功部署在機密網絡上的大語言模型(LLM)。
-
Claude Gov 為國防部(現為戰爭部)提供了巨大的價值,他們對結果非常滿意。它增強了國家安全和國防。
-
沒有人聲稱系統拒絕了本應接受的請求。沒有人抱怨產品有任何功能問題,或者任何實際輸出「太覺醒(too woke)」。海格塞斯曾說:「他們太優秀了,我們需要他們。」
-
Anthropic 並未反對國防部/戰爭部對系統的任何使用。
-
Anthropic 對抓捕馬杜洛(Maduro)的突襲行動完全沒有異議。
-
該合約不包含允許「所有合法用途」的條款,這種明確的措辭在國防合約中並不典型。這項修改是後來才要求的。
-
該合約目前仍然有效。Claude Gov 繼續像以前一樣協助戰爭部的行動,包括在持續進行的伊朗衝突中,目前沒有已知問題,並繼續增強我們的國家安全。
-
美國總統/戰爭部有意在不超過六個月內終止此合約。
-
Claude Gov 仍然是唯一部署在機密網絡上的模型。xAI 和 OpenAI 雖然簽署了合約,但其模型尚未準備就緒。
我們不知道這些保護措施中有多少是合約規定的,有多少是基於合作關係以及 Anthropic 在不滿意時撤出的能力。
這份合約在過去一週之前,似乎對各方都有利。Anthropic 樂於協助國防。OpenAI 很高興 Anthropic 承擔了這份負擔,讓他們不必親自上陣。戰爭部對產品感到滿意。國家安全得到了增強。
Anthropic 過去(且現在)樂於在現有合約下繼續合作,並認為這保留了他們的紅線。
Anthropic 也願意終止合約,並協助戰爭部完成任何過渡期,以確保國家安全。
Anthropic 合約的擬議修訂
戰爭部決定對其受到的限制感到不滿,並要求修改合約。
特別是,他們的公開要求是合約必須允許「所有合法用途」。
這是非常罕見的措辭。
這演變成了戰爭部的威脅:如果你不同意這種極其罕見的合約措辭,我們不僅會終止你的合約,還會試圖摧毀你的公司。
這是他們在公開場合說的話。我們不知道雙方提出的新合約條款的完整細節。我將在此分享我從公開和私下來源中,至少有相當把握的談判細節。當然,我的私下來源在某些細節上可能有誤或說謊。
請注意,OpenAI 認為由於反托拉斯法,它在法律上無法就條款諮詢 Anthropic,因此雙方從未對過筆記。
-
這次重新談判是應戰爭部的要求,其唯一目的是削弱對政府使用 Claude 的限制。Anthropic 可能要求了其他保證作為回報。
-
Anthropic 願意削弱先前合約中的某些限制,但在國內大規模監控(DMS)和無人參與決策鏈的自主武器這兩條紅線上保持堅定。
-
這種基於合約的限制在國防合約中是完全正常的程序。任何說法相反的人若非誤解就是說謊。
-
戰爭部在公開場合要求一份純粹「所有合法用途」的合約,儘管他們現在顯然願意接受功能上的限制。
-
關於安全堆疊和 FDEs 的保證是談判的內容之一。
-
DMS(國內大規模監控)在美國法律中並非標準術語。我們不知道它在這裡的定義。
-
雙方之所以如此在意合約措辭,是因為他們相信:如果安全堆疊被設計成故意拒絕合法且安全的請求,這可能是違法的。 「所有合法用途」的標準將有效適用。合約需要指定其他內容,而違反合約的行為隨後會使該行動變得非法,進而允許安全堆疊阻止該行動,極端情況下則在過渡期後終止合約。這並不代表該觀點是正確的。
-
戰爭部和 Anthropic 就新合約的大部分措辭達成了一致,且可能接近達成協議。表面上的分歧在於合約細節。
-
一個關鍵細節是戰爭部希望使用「視情況而定(as appropriate)」這一術語,而 Anthropic 的律師認為這實際上是一個逃生艙口,會讓戰爭部規避相關限制。
-
特別是,根據 Emil Michael 的說法,戰爭部希望加入這樣的條款:「本部確認將確保適當的人類監督到位,並將監控並保留覆蓋或禁用 AI 系統的能力……視情況而定。」
-
我對此的直白理解是,如果戰爭部隨後認定擁有覆蓋或禁用系統的方法「不適當」(例如,為了避免敵人可能利用該覆蓋功能,這是一個非常合理的理由),那麼事情就結束了。該條款將失去作用。
-
雙方很可能已經就無人參與決策鏈的自主武器使用找到了可接受的措辭。如果沒有,我不明白為什麼他們無法達成共識。我看不出有根本性的分歧。
-
在談判後期,Anthropic 表達了新的意願,允許在 FISA(外國情報監視法)下使用,只要不要求他們分析大量關於美國人的第三方和公共數據,這是他們之前未向戰爭部提供的。
-
戰爭部在最後一刻的談判中願意妥協,其方式實際上會使合約不再是「所有合法用途」,並放棄至少大部分「視情況而定」的使用,但堅持要求分析大量關於美國人的第三方和公共數據。
-
這與戰爭部的公開言論相矛盾,進一步使他們企圖將其指定為供應鏈風險的行為失效,並揭示了他們在這次談判中真正關心的內容——除非他們積極希望談判失敗,以證明謀殺 Anthropic 的企圖是正當的。
-
鑑於 OpenAI 對其與戰爭部協議的修訂,如果雙方能找到再次信任彼此的方法,且目標是增強國家安全,而戰爭部能放下自尊,那麼我看不出雙方現在為何不能談判出一份既滿足戰爭部需求又保護 Anthropic 紅線的協議。
-
遺憾的是,任何此類協議都需要信任。鑑於戰爭部的行為,任何一方或雙方都有理由認為信任已受損到目前無法達成協議的程度。在這種情況下,一旦 OpenAI 提供了合適的替代方案,取消合約並停用 Claude Gov 直到信任修復是有道理的。
-
這些都與 Claude 商業版的運作毫無關係,試圖將其或整個公司指定為供應鏈風險是違法、武斷、反覆無常且荒謬的,這只能等同於報復,甚至包括企圖進行企業謀殺。無論信任是否能重建,這都必須從議程中剔除。我們需要的是一個退場機制。
Anthropic 尋求的是一份保留特定狹窄紅線的合約,包括一些他們認為是國內大規模監控,但戰爭部認為合法且法院會支持戰爭部的事情。
戰爭部不願同意這一點,至少不願與 Anthropic 同意。因此沒有達成協議。
更核心的是,據我理解,戰爭部的態度是「沒人能告訴我們該做什麼」。
Anthropic 的態度是「這有兩件事我們不會做」。
戰爭部將此解讀或表現為在告訴戰爭部該做什麼。他們無法忍受。
如果我們能簡單地同意:
-
除了美國總統,沒人能告訴戰爭部該做什麼。
-
Anthropic 可以決定如何處置其私有財產。
-
如果戰爭部需要一個會聽從所有命令的人,它應該去別處找。
那麼我們就可以繼續過自己的生活。外面還有很多其他的火要滅。
OpenAI 與戰爭部的合約
週五晚上,OpenAI 與戰爭部簽署了一份協議。如此迅速地行動是一個錯誤,我認為他們在多方面並未完全理解所簽署的協議,但他們相信這樣做是為了緩和局勢。
週一晚上,山姆·阿特曼(Sam Altman)宣布他們「將修改」與戰爭部的協議,使其有利於 OpenAI,包括分享新的合約措辭。
我們只掌握了這份合約的一小部分措辭,以及 OpenAI 聲稱將對合約進行的修改。
我對 OpenAI 選擇呈現這份合約的方式,以及他們將其與 Anthropic 的合約及潛在合約進行對比的方式感到不滿。
從根本上說,簽署這份合約的決定主要是基於相互信任,其次是認為 OpenAI 可以建立一個強大的安全堆疊,而戰爭部會尊重安全堆疊拒絕的事項,只要 OpenAI 不「告訴戰爭部該做什麼」。
這是一個可以採取的立場。它可能對每個人都很好,特別是如果戰爭部確實願意現在以誠信態度修改條款。我真心相信阿特曼是在試圖緩和局勢,無論他是否已經或正在產生預期的效果。
但如果這就是計劃,就必須承認這一點,而不是反覆堅持合約提供了它實際上並未提供的其他保護,聲稱它有更多或更強的保護,或者將安全堆疊和前線部署工程師的存在呈現為與 Anthropic 已經在做的事情截然不同的東西。
以下是我們知道,或至少對這份新合約有信心的內容:
-
OpenAI 於週三開始談判此協議,並於週五簽署。正如阿特曼現在承認的,時間不夠,且犯了錯誤。這也在無意中以一種升級的方式破壞了 Anthropic 的立場。他們現在希望修正條款。我同意他的看法,這對於未來匆忙推出其他可能風險更高的事情是一個很好的教訓。
-
從高層次來看,OpenAI 的做法是簽署一份基於相互信任的協議。戰爭部信任 OpenAI 會交付產品。OpenAI 信任戰爭部會光榮地使用它。
-
該協議與 Anthropic 拒絕的協議並不完全相同,但它包含了 Anthropic 拒絕的大部分或全部特定措辭,且在預期修改之前,尚不清楚它在哪些重要方面有所不同。
-
阿特曼和 OpenAI 的其他人強烈堅持這份協議有更多的保障措施,甚至比 Anthropic 的原始協議更強。就我們目前看到的現有合約措辭而言,事實並非如此。
-
OpenAI 強調,他們的協議允許他們建立並運行自己的安全堆疊,包括派駐前線部署工程師(FDEs)。這顯然是為了與 Anthropic 的合約形成對比,特別是允許他們交付任何安全堆疊,而戰爭部必須尊重任何拒絕。我們現在知道 Anthropic 擁有自己的現有安全堆疊和 FDEs,但我們不知道這是否是受其當前合約保護的權利,或者他們認為在法律或實踐上允許它拒絕什麼。
-
OpenAI 週五晚上的協議允許其交付的任何模型用於「所有合法用途」。根據 OpenAI 和阿特曼的溝通,顯然他們信任戰爭部來決定什麼構成所有合法用途。
-
根據幾個來源,他們似乎相信可以交付他們決定的任何安全堆疊,而戰爭部將尊重其拒絕。其他人則深表懷疑,既懷疑拒絕能否阻止戰爭部,也懷疑 OpenAI 是否會被允許這樣做。同樣,我們不知道這裡的具體措辭。
-
所有合法用途顯然包括許多我和你們大多數人會認為是「國內大規模監控」的事情,且這會違反 Anthropic 的紅線。OpenAI 的預期計劃是如果需要,通過安全堆疊來阻止這些行為。
-
這與 Anthropic 的法律理解和理論非常不同。
-
阿特曼聲稱解釋法律或決定什麼被允許、什麼不被允許並非 OpenAI 的責任,但他也聲稱他和 OpenAI 會拒絕服從違憲的用途或命令,無論戰爭部對其合法性的看法如何。我不知道該如何協調這兩種主張。
-
OpenAI 分享了以下法律措辭:「戰爭部可出於所有合法目的使用 AI 系統,並符合適用法律、操作要求以及完善的安全和監督協議。在法律、法規或本部政策要求人類控制的任何情況下,AI 系統不得用於獨立指揮自主武器,也不得用於承擔其他需要人類決策者根據相同授權批准的高風險決策。根據國防部指令 3000.09(2023 年 1 月 25 日修訂),在自主和半自主系統中使用 AI 必須在部署前在現實環境中進行嚴格的驗證、確認和測試,以確保其按預期運行。」
-
續:「對於情報活動,任何對私人資訊的處理都將遵守第四修正案、1947 年《國家安全法》和 1978 年《外國情報監視法》、第 12333 號行政命令以及要求明確外國情報目的的適用國防部指令。AI 系統不得用於與這些授權一致的對美國人私人資訊的無約束監控。除《波塞武裝部隊法》(Posse Comitatus Act)及其他適用法律允許外,該系統也不得用於國內執法活動。」
-
OpenAI 聲稱這段措辭確立了這些法律的當前版本。幾乎所有的法律意見都認為這是錯誤的。我非常確信第二段並未確立當前的措辭。我可以看到 3000.09 措辭確立當前版本的案例,但 3000.09 幾乎沒有實際障礙。
-
OpenAI 和戰爭部對此處措辭的功能性質提出了各種額外主張,但大多數法律專家和其他審查文本的人,以及領先的大語言模型,都不認為事實如此。
-
OpenAI 的 Katrina 明確表示這筆交易排除了國家安全局(NSA)。許多人對此表示懷疑。阿特曼表示,修訂內容包括確認這些服務不會被戰爭部情報機構(包括 NSA)使用。
-
計劃中的修訂聲稱將加入這段措辭:與適用法律(包括美國憲法第四修正案、1947 年《國家安全法》、1978 年《FISA 法案》)一致,AI 系統不得被故意用於對美國個人和國民的國內監控。
-
還有這段:為免生疑問,本部理解此限制禁止蓄意追蹤、監視或監控美國個人或國民,包括通過採購或使用商業獲取的個人或可識別資訊。
-
這段措辭代表在公開合約中將對法律的理解編碼化,使其理解具有潛在的執行力。這與「不受限制的存取」或「私營公司不得制定政策」的要求或此類主張的各種誇張變體是不相容的,合約隨後將相關安全堆疊的實施權賦予了 OpenAI。
-
這堵住了一些漏洞,並解決了 OpenAI 現在意識到在原始措辭中未處理的問題。
-
我所見到的法律意見認為,新措辭使用了法律術語(terms of art),如果戰爭部決定這樣做,它在法律上仍可以做很多事情。
以下是一些關於新法律措辭的法律意見。
從本質上講,新措辭對於建立意圖非常有幫助,且顯然是一種改進,但對於理論上的「邪惡戰爭部法律總顧問(General Counsel)」來說並不夠穩健。
但即便如此,它確實證明了根據 OpenAI 的解釋創建相關安全堆疊的正當性,如果奏效,這將創造一個更高的實際門檻。
Brad Carson:關於新的 OAI-DOW 協議有很多有趣的看法。@j_asminewang、@CharlieBul58993、@_NathanCalvin、@JTillipman 都提出了詢問或發表了貼文。
我的一些隨感。
我認為,如果以誠信執行,這些措辭似乎確實有所改進。禁止將商業數據集用於情報目的超出了目前的(糟糕的)法律,並引入了一項新的(且需要的)限制。重複一遍,根據現行法律,情報機構可以毫無顧忌地使用商業數據庫分析美國人。大語言模型將加速這一進程,我很樂意看到這類情報分析受到任何形式的限制。
但是,按照合約的慣例,定義是關鍵。所以讓我扮演邪惡的戰爭部法律總顧問,告訴你我會如何規避目前呈現的內容,僅供討論。
承重詞是「監控(surveillance)」。重要的是,這是 FISA 中定義的一個法律術語。根據 FISA,「監控」是指通過電子、機械或其他監控設備獲取往返於美國境內人士的任何有線通訊內容。作為邪惡的人,或者可能只是普通人,我會辯稱這份 OAI 合約中的「監控」指的就是情報界(IC)所指的意思;畢竟,合約明確引用了 FISA!所以,邪惡的法律總顧問會說,通過 GPT 分析商業購買的定位數據、瀏覽模式和行為記錄根本不是「監控」。這只是對合法獲取的商業資訊進行數據分析。換句話說,該條款並不禁止它,因為該條款描述的活動不屬於該條款處理的類別。
所以要明確:情報界認為商業數據分析甚至不屬於「監控」。所以,邪惡的國防部法律總顧問說,新的合約措辭就像是在說,我們同意不對那些我們已經定義為不是「監控」對象的事物進行監控。呼!
「追蹤(Tracking)」和「監控(monitoring)」給邪惡的法律總顧問帶來了更多麻煩。這些不是法律術語(如果我沒記錯的話!)。但我很聰明。「追蹤」暗示了持續性,且需要一個直接對象。所以像「告訴我誰去了塔爾薩的清真寺並預訂了去紐約的旅行」這樣的一般性和靜態查詢根本不是追蹤。同樣,「3 月 2 日在 41 街附近誰在塔爾薩使用了三星手機?」也不是。
「監控」也暗示了持續性。所以不隨時間持續的靜態搜索甚至不算是監控。
因此,邪惡的法律總顧問總結道,運行沒有目標、不隨時間持續且不攔截通訊的搜索完全超出了這份協議!這就是我們現在正在做的事情!而且我們可以在大語言模型的賦能下繼續做下去!
而且,邪惡的法律總顧問說,我特別喜歡我們說「本部理解(the Department understands)」而不是簡單地說「此限制禁止……」的那部分,雖然措辭奇怪,但在某種神秘的方式上肯定是有意義的。我大概可以辯稱後者比前者更強,所以它必須以一種有助於我邪惡行徑的方式產生意義。
Brad 補充:這會是現實中的解釋方式嗎?也許吧。歸根結底,情報工作需要我們信任人們會以誠信行事而非作惡。歷史大多數時候證明這是正確的。但並非總是如此。我們必須寄希望於道德領導力,以及來自國會的適當監督和問責。
在最好的情況下,這段新措辭可能是一個新的、受歡迎的限制。在最壞的情況下,它用非常精確的法律術語蒙蔽了我們,讓我們誤以為這些詞具有普通含義。
Jeremy Howard:好的,這是我們律師事務所執行長的非正式/非官方回答——太長不看版:這段措辭似乎並未在先前分享的合約細節基礎上增加太多內容:
「不得使用」被限制在「與適用法律一致」的情況下。而「本部理解此限制禁止」並沒有起到太大的作用。它可能有助於法院的解釋,因為合約需要「意思表示一致(meeting of the minds)」,但它仍然不能否定「適用法律」是一個變動目標的事實。
我感到擔心/驚訝的是,門檻並未延伸到疏忽(negligence)或至少是魯莽(recklessness)。主觀意圖(mens rea)的等級是:故意(purposely) > 明知(knowingly) > 魯莽(recklessly) > 疏忽(negligently),而法院通常將「有意(intentionally)」解讀為介於「故意」和「明知」之間。「有意」是一個比魯莽或疏忽更高、更難證明的門檻。
我們對自主武器的所有擔憂仍然適用,因為最新的更新完全沒有涉及它們。[這表示它並未凍結現行法律。]
Charlie Bullock:初步看法:
在監控方面,這似乎比之前的措辭有了顯著改進,我很高興看到這一點。
它沒有解決自主武器的擔憂,也沒有聲稱要解決。
在沒有看到完整合約的情況下很難下定論——但同時,國防承包商不被允許公開其重要國防合約的全文也是有一定道理的(例如,Anthropic 就沒有分享其合約文本,這對我來說並不奇怪)。
因為我們無法獲取合約全文,公眾處於一個尷尬的境地,必須在信任 OpenAI 和不信任 OpenAI 之間做出選擇。這段合約片段看起來確實不錯,但在不知道相關背景的情況下,無法確定它是否真的好。如果你信任 OpenAI 的領導層並認為他們的意圖是純潔的,你可能會因此感到安心;如果你不信任,你可能就不會。
我希望 OpenAI 的員工能比公眾獲得更多關於合約實際內容的資訊。
如果這段措辭出現在新合約中,並且確實如阿特曼所聲稱的那樣起作用,我不明白為什麼五角大廈會接受這段措辭,畢竟他們剛剛才因為 Anthropic 要求非常類似的東西而試圖摧毀它。也許這只是一種情況:戰爭部並不在乎紅線本身,只是因為 Anthropic 的領導層是自由派(libs)而對其發洩怒火?如果是這樣,對於戰爭部在 Anthropic 幾乎肯定會提起的訴訟(挑戰戰爭部將其指定為供應鏈風險的企圖)中的立場來說是個壞消息(儘管公平地說,即使在此之前,戰爭部在那場訴訟中也不太可能獲勝)。
LASST 仍然表示擔憂。 Nathan Calvin 認為我們需要看到完整文件。 John Oleske 關注「監控」以及「有意」和「蓄意」的定義作為戰爭部的法律論據。 Lawrence Chen 也強調了這一點。 Dave Kasten 對此的態度比其他人都更不客氣。
我認為這只會凸顯政府立場的自相矛盾。
我將其翻譯為:「Anthropic 堅持不允許『所有合法用途』,所以我們將其標記為供應鏈風險,不像 OpenAI,後者也不會允許『所有合法用途』。」
OpenAI 絕對會利用其安全堆疊,將解釋權賦予自身這個不受問責的私人交易對手,以處理合約下其私有財產的使用。這就是 OpenAI 選擇的安全堆疊必然運作的方式。不,OpenAI 不會等待那些問題通過耗時數年的「政治和法律程序」得到解答。
我認為這在這裡完全沒問題,如果你不喜歡,那就不要簽署合約或使用不同的模型。但這對 OpenAI 來說,至少和對 Anthropic 來說一樣真實。