上訴法院裁定 Anthropic 供應鏈風險標籤應維持現狀

上訴法院裁定 Anthropic 供應鏈風險標籤應維持現狀

Wired - AI·大約 4 小時前

這家 AI 公司在爭取 Claude 如何供美國軍方使用的法律戰中,目前面臨著相互矛盾的裁決。

華盛頓特區的一家美國上訴法院週三裁定,Anthropic「尚未滿足嚴格的要求」,無法暫時解除五角大廈施加的供應鏈風險認定。這項決定與上個月舊金山下級法院法官發布的裁決相左,目前尚不清楚這兩項衝突的初步判決將如何解決。

政府根據兩項效果相似的不同供應鏈法律對 Anthropic 進行了制裁,而舊金山和華盛頓特區的法院分別僅針對其中一項法律進行裁決。Anthropic 表示,它是第一家根據這兩項法律被認定的美國公司,這些法律通常用於懲罰對國家安全構成風險的外國企業。

「准予暫緩執行將迫使美國軍方在重大且持續的軍事衝突中,延長與一家不被信任的關鍵 AI 服務供應商的交易,」由三名法官組成的上訴小組在週三的裁決中寫道,並稱這是一起前所未有的案件。該小組表示,雖然 Anthropic 可能會因持續的認定而遭受財務損失,但他們不希望冒著「司法對軍事行動造成重大干預」的風險,也不願「輕易推翻」軍方對國家安全的判斷。

舊金山法官此前發現,國防部對 Anthropic 的行為可能存在惡意,其動機源於對這家 AI 公司提議限制其技術用途,以及該公司對這些限制的公開批評感到不滿。法官上週下令移除供應鏈風險標籤,川普政府隨後遵照執行,恢復了五角大廈及聯邦政府其他部門對 Anthropic AI 工具的訪問權限。

Anthropic 發言人丹妮爾·科恩(Danielle Cohen)表示,公司感謝華盛頓特區法院「意識到這些問題需要迅速解決」,並保持信心「法院最終會同意這些供應鏈認定是非法的」。

國防部未立即回應置評請求。

這些案件正在測試行政部門對科技公司行為擁有多大的權力。Anthropic 與川普政府之間的爭鬥,也正值五角大廈在對抗伊朗的戰爭中部署 AI 之際。該公司辯稱,它因為堅持其 AI 工具 Claude 缺乏某些敏感行動(如在無人監督的情況下執行致命無人機打擊)所需的準確性,而遭到非法懲罰。

幾位政府採購和企業權利專家告訴《連線》(WIRED),Anthropic 對政府的訴訟理由充分,但法院有時會拒絕在涉及國家安全的事務上推翻白宮的決定。一些 AI 研究人員表示,五角大廈針對 Anthropic 的行動「凍結了關於 AI 系統性能的專業辯論」。

Anthropic 在法庭上聲稱,由於這項認定,公司損失了業務。政府律師主張,該認定禁止五角大廈及其承包商在軍事項目中使用該公司的 Claude AI。只要川普繼續執政,Anthropic 可能就無法重新奪回其在聯邦政府中曾擁有的重要地位。

該公司兩起訴訟的最終裁決可能還需數月時間。華盛頓特區法院定於 5 月 19 日進行口頭辯論。

到目前為止,各方揭露關於國防部具體如何使用 Claude,或是在將人員過渡到 Google DeepMind、OpenAI 或其他公司的 AI 工具方面取得了多少進展的細節極少。在唐納·川普總統領導下自稱為「戰爭部」的軍方表示,已採取措施確保 Anthropic 無法在過渡期間故意破壞其 AI 工具。

https://wired.com/story/anthropic-appeals-court-ruling/