newsence

Anthropic 執行長 Dario Amodei 針對與戰爭部討論事宜之聲明

Lesswrong·大約 1 個月前

我深信利用人工智慧保衛美國及其他民主國家具有存在意義上的重要性,因此我們積極向政府提供技術,但我們堅持不將 AI 用於大規模國內監視與全自動武器。儘管面臨被標記為供應鏈風險或徵用國防生產法的威脅,我們仍無法違背良知撤除這些安全防線,並希望戰爭部能重新考慮其立場。

我深信,利用 AI 保衛美國及其他民主國家,並擊敗我們的專制對手,具有存亡攸關的重要性。

因此,Anthropic 一直積極地將我們的模型部署於戰爭部(Department of War)及情報體系。我們是首家領先的 AI 公司將模型部署於美國政府的機密網路中,也是首家將模型部署於國家實驗室的公司,並且是首家為國家安全客戶提供客製化模型的公司。Claude 已廣泛部署於戰爭部及其他國家安全機構,用於執行關鍵任務應用,例如情報分析、建模與模擬、作戰規劃、網路行動等。

Anthropic 也採取行動捍衛美國在 AI 領域的領先地位,即便這有損公司的短期利益。我們選擇放棄數億美元的收入,以切斷與中國共產黨有關聯的公司使用 Claude(其中部分公司已被戰爭部列為中國軍事公司),關閉了試圖濫用 Claude 的中共資助網路攻擊,並倡導對晶片實施嚴格的出口管制以確保民主優勢。

Anthropic 理解軍事決策是由戰爭部而非私營公司制定的。我們從未對特定的軍事行動提出異議,也未曾試圖以「臨時起意」(ad hoc)的方式限制我們技術的使用。

然而,在極少數情況下,我們認為 AI 可能會破壞而非捍衛民主價值。某些用途也超出了當今技術能夠安全且可靠執行的範圍。在我們與戰爭部的合約中,從未包含以下兩種使用案例,我們認為現在也不應包含:

  • 大規模國內監視。 我們支持將 AI 用於合法的國外情報和反情報任務。但將這些系統用於大規模「國內」監視與民主價值不相容。AI 驅動的大規模監視對我們的基本自由構成了嚴重且新型的風險。就目前此類監視在法律上可行而言,僅是因為法律尚未跟上 AI 快速增長的能力。例如,根據現行法律,政府可以從公開來源購買美國人行動、網頁瀏覽和社交關係的詳細記錄,而無需取得搜查令;情報體系已承認這種做法引發了隱私疑慮,並在國會引發了兩黨的反對。強大的 AI 使得將這些分散、單獨看似無害的數據,自動且大規模地彙整成任何個人生活的完整圖像成為可能。
  • 全自動武器。 半自動武器(如今日在烏克蘭使用的那些)對保衛民主至關重要。甚至「全」自動武器(完全排除人類參與,並自動選擇與攻擊目標的武器)也可能被證明對我們的國防至關重要。但就目前而言,領先的 AI 系統還不夠可靠,不足以驅動全自動武器。我們不會在知情的情況下提供會使美國戰士和公民面臨風險的產品。我們曾提議與戰爭部直接進行研發合作,以提高這些系統的可靠性,但他們並未接受此提議。此外,若缺乏適當的監督,全自動武器無法被信賴能行使我們訓練有素的專業部隊每天展現的關鍵判斷。它們需要在適當的防護欄下部署,而這些防護欄目前並不存在。

據我們所知,到目前為止,這兩個例外情況並未成為加速我軍採用和使用我們模型的障礙。

戰爭部已表示,他們將僅與同意「任何合法用途」並移除上述案例防護措施的 AI 公司簽約。他們威脅如果我們維持這些防護措施,將把我們從其系統中移除;他們還威脅要將我們列為「供應鏈風險」——這是一個專門保留給美國對手的標籤,此前從未應用於美國公司——「並且」援引《國防生產法》(Defense Production Act)強制移除防護措施。後兩項威脅本質上是矛盾的:一個將我們標記為安全風險;另一個則將 Claude 標記為對國家安全至關重要。

無論如何,這些威脅不會改變我們的立場:我們無法違背良知同意他們的要求。

選擇最符合其願景的承包商是戰爭部的特權。但鑑於 Anthropic 的技術為我軍提供的實質價值,我們希望他們重新考慮。我們強烈傾向於在保留我們要求的兩項防護措施的情況下,繼續為戰爭部和我們的戰士服務。若戰爭部選擇停止使用 Anthropic,我們將努力確保平穩過渡到另一家供應商,避免對正在進行的軍事規劃、行動或其他關鍵任務造成任何干擾。在所需的時間內,我們的模型將按照我們提議的廣泛條款繼續提供。

我們隨時準備繼續我們的工作,以支持美國的國家安全。

討論

https://lesswrong.com/posts/d5Lqf8nSxm6RpmmnA/anthropic-statement-from-dario-amodei-on-our-discussions