newsence
Anthropic 否認能在戰爭期間破壞 AI 工具

Anthropic 否認能在戰爭期間破壞 AI 工具

Wired - AI·16 天前

國防部指控這家 AI 開發商可能在戰爭中操縱模型,公司高層則主張這是不可能的。

Anthropic 的一名高管在週五的一份法庭文件中寫道,一旦美國軍方開始運行其生成式 AI 模型 Claude,Anthropic 就無法對其進行操縱。此聲明是為了回應川普政府對該公司可能在戰爭期間篡改其 AI 工具的指控。

「Anthropic 從未有能力導致 Claude 停止運作、更改其功能、關閉訪問權限,或以其他方式影響或危害軍事行動,」Anthropic 公共部門負責人 Thiyagu Ramasamy 寫道。「Anthropic 並不具備在行動前或行動期間禁用該技術或更改模型行為所需的訪問權限。」

五角大廈與這家領先的 AI 實驗室就其技術如何用於國家安全,以及該用途應有哪些限制,已經爭論了數月。本月,國防部長彼得·海格塞斯(Pete Hegseth)將 Anthropic 列為供應鏈風險,這一認定將阻止國防部在未來幾個月內使用該公司的軟體,包括透過承包商使用。其他聯邦機構也正在放棄使用 Claude。

Anthropic 提起了兩項訴訟,質疑該禁令的合憲性,並尋求緊急命令以撤銷禁令。然而,客戶已經開始取消交易。其中一起案件的聽證會定於 3 月 24 日在舊金山聯邦地方法院舉行。法官可能會在不久後決定是否暫時撤銷禁令。

在本週早些時候的一份文件中,政府律師寫道,國防部「沒有義務容忍關鍵軍事系統在國防和現行軍事行動的關鍵時刻面臨危險的風險」。

據《連線》(WIRED)報導,五角大廈一直使用 Claude 來分析數據、撰寫備忘錄並協助制定作戰計劃。政府的論點是,如果 Anthropic 不贊成某些用途,可能會透過關閉 Claude 的訪問權限或推送有害更新來干擾現行的軍事行動。

Ramasamy 拒絕了這種可能性。「Anthropic 並未保留任何後門或遠端『自殺開關』(kill switch),」他寫道。「例如,Anthropic 的人員無法登錄國防部系統以在行動期間修改或禁用模型;這項技術的運作方式根本不是那樣。」

他接著表示,Anthropic 只有在政府及其雲端服務供應商(在此案例中為亞馬遜網路服務 AWS,儘管他未點名)批准的情況下才能提供更新。Ramasamy 補充說,Anthropic 無法訪問軍方用戶輸入 Claude 的提示詞(prompts)或其他數據。

Anthropic 的高管在法庭文件中堅持認為,公司並不尋求對軍事戰術決策的否決權。政策負責人 Sarah Heck 在週五的一份法庭文件中寫道,Anthropic 願意在 3 月 4 日提議的合同中對此做出保證。根據該文件,提議中寫道:「為免疑義,[Anthropic] 理解此許可並不授予或賦予任何控制或否決合法國防部作戰決策的權利。」該文件使用了五角大廈的另一種稱呼。

Heck 聲稱,該公司也準備接受相關條款,以解決其對於 Claude 在無人監督的情況下被用於協助執行致命打擊的擔憂。但談判最終破裂。

目前,國防部在法庭文件中表示,它正「採取額外措施來減輕該公司帶來的供應鏈風險」,方法是「與第三方雲端服務供應商合作,確保 Anthropic 領導層無法對目前部署的 Claude 系統進行單方面更改」。

https://wired.com/story/anthropic-denies-sabotage-ai-tools-war-claude/