人工智慧發展的地緣政治模型

Lesswrong·

我們模擬了快速的 AI 發展如何導致一場成王敗寇的人工超級智能競賽,這可能導致決定性的戰略優勢、人類滅絕或災難性的全球戰爭。中等強國面臨黯淡的局勢,必須在變得無關緊要或透過「附庸的賭注」結盟並放棄完全自主權之間做出選擇。

我們模擬了在缺乏防止危險 AI 開發的國際協調情況下,AI 的快速發展將如何重塑地緣政治。我們專注於預測超級大國與中等強國會採取哪些策略,以及這些策略會導致何種結果。

您可以在此閱讀我們的論文:ai-scenarios.com

與大多數預測嘗試相比,預測 AI 快速進展的情境應該更具可操作性。這是因為單一因素(即獲取 AI 能力的管道)壓倒性地決定了地緣政治的結果。

一旦 AI 基本上自動化了 AI 研發的關鍵瓶頸,情況就更是如此。如果最強大的 AI 同時也能產生最快的 AI 進步,那麼在人工超級智能(ASI)競賽中,領先者的優勢只會隨著時間推移而擴大,直到其 AI 系統能對所有參與者產生決定性的戰略優勢(DSA)。

在此模型中,超級大國很可能會投入一場由國家大力資助(腳註:「可能是完全的國家項目,或由私人參與者協助;無論如何,各國將以只有國家參與才可能達到的規模進行巨額投資,並全力支持研究工作,例如提供國家級的安全保障。」)的 ASI 競賽,這將導致以下三種結果之一:

  • 一位「贏家」對世界上所有其他參與者取得決定性戰略優勢(DSA);
  • 對強大 AI 系統失去控制,導致人類滅絕或永久喪失權力;
  • 由於 ASI 競賽中的落後者發動先發制人的攻擊,爆發大國戰爭。

如果 AI 研發的進程被證明是高度可預測的,或者 AI 研發運作對對手而言高度透明,那麼在某個時間點,落後者會清楚意識到時間並不在他們這邊:如果他們現在不採取行動阻止領先者的 AI 計劃,他們最終將遭受徹底的失敗。

在這種情況下,落後者很可能會發動旨在摧毀領先者 AI 研究計劃的暴力打擊,導致超級大國之間爆發極具破壞性的戰爭。

如果超級大國的研究計劃得以繼續,它最終很可能會達到 AI 強大到足以賦予 DSA 的程度。如果這種強大的 AI 脫離人類控制,這將是不可逆轉的,導致人類滅絕或永久喪失權力。

這種前景對中等強國來說相當黯淡:他們在 ASI 競賽中競爭的機會微乎其微,而且基本上無法單方面向超級大國施壓,要求其停止開發 ASI 的嘗試。

中等強國還有一種在以往衝突中常見的策略,即與其中一個超級大國結盟,並希望其「贏得」競賽,我們稱之為「附庸的賭注」(Vassal’s Wager)。

為了讓這一策略在 ASI 競賽中奏效,宗主國不僅必須率先開發出 ASI,還必須避開失控風險,並避免極具破壞性的大國戰爭。

即使在這種最好的情況下,該策略也意味著完全放棄自主權:中等強國對於掌握 ASI 的超級大國所採取的行動將完全沒有追訴權,包括侵犯中等強國主權的行動。

如果 AI 的進展在達到可以自動化 AI 研發的水平之前進入平台期,未來的軌跡將更難預測,因為它們不再由單一因素壓倒性地決定。

雖然我們沒有詳細模擬這種情況,但我們指出了它的一些潛在風險,例如:

  • 較弱的 AI 促成新的顛覆性軍事能力(包括打破核武相互保證毀滅平衡的能力);
  • 由於自動化導致權力極度集中;
  • 具說服力的 AI 系統進行大規模操縱。

身為民主國家和中等強國,都會使參與者面臨這些因素帶來的更高風險:

  • 如果位於超級大國管轄範圍內的公司自動化了其經濟的大部分,中等強國將失去重要的外交籌碼;
  • 民主國家特別容易受到大規模操縱,而權力的極度集中與其價值觀背道而馳。

Lesswrong

相關文章

  1. 中等強國如何阻止超級人工智能的發展

    5 個月前

  2. 搶先中國發展ASI

    5 個月前

  3. 在強力預設下,人工超級智能將終結自由民主

    16 天前

  4. AI也應拒絕從事能力研究

    6 個月前

  5. 前所未有的先例:十三種人工超級智能風險的歷史類比

    3 個月前