唯有在全球禁止人工超級智能的情況下,才可能打造出安全的人工超級智能

唯有在全球禁止人工超級智能的情況下,才可能打造出安全的人工超級智能

Lesswrong·

AI 生成摘要

我認為在研發可控人工超級智能的過程中,必然會先掌握如何構建不安全的人工超級智能,因此若沒有全球性的禁令與強力執法,任何安全研發計畫都將面臨技術外洩或意外失控的風險。

有時人們會提出各種建議,認為我們應該只開發「安全」的人工超級智能(ASI),而不是那種據推測「不安全」的類型。^([1])

人們建議的「安全」有多種形式:

  • 有時他們建議建立「對齊」的 ASI:你有一個完全具備代理能力、自主且如神一般的 ASI 到處運行,但它真的非常非常愛你,而且絕對會做正確的事。
  • 有時他們建議我們應該只開發「工具型 AI」或「非代理型」AI。
  • 有時他們甚至有更奇特、或顯然更愚蠢的想法。

現在,我可以長篇大論地爭辯為什麼這比人們想像的要難上千萬倍,為什麼他們的各種提議幾乎普遍行不通,為什麼甚至嘗試這樣做都是瘋狂且不道德的^([2]),但那並不是我想表達的主要觀點。

相反,我想提出一個更簡單的觀點:

假設你有一個研究議程,如果執行成功,將會產生一個你可以「控制」的 ASI 級別強大軟體系統。^([3])

關鍵在於:在你弄清楚如何構建可控 ASI 的過程中,你將已經弄清楚如何構建不安全的 ASI,因為構建不安全的 ASI 比構建受控的 ASI 要容易得多,而且兩者處於相同的技術路徑上。

如果不了解許多、許多關於智能以及如何構建它的知識,你就無法構建受控的 ASI。

因此,這就讓「如何找到能產生可控 ASI 的議程」和「如何執行該議程」這兩個技術問題,卡在了一個瓶頸上:「即使你有這樣的議程,你如何執行它,而不會在過程中因為意外,或因為某個混蛋離開專案或閱讀了你的論文,而製造出不安全的 ASI?」

據我所知,目前追求這類議程的人中,沒有人能回答這些問題。讓我們說得非常清楚:這是任何理智的「安全 ASI」計畫在值得考慮之前,必須回答的根本問題。

你必須具備以下條件之一:

  • 某種荒謬程度的機構保密與控制(例如:「這項研究將專門在 51 區進行,我們會暗殺所有離開專案的人,並對所有其他嘗試開發的人進行核打擊」)
  • 完全的技術正交性(「這項研究與其他研究截然不同,以至於它在原則上甚至無法被用來構建不安全的 ASI,只能構建安全的 ASI」,而這是物理上不可能的)
  • 全球範圍內的 ASI 開發禁令以及有效的執法

這意味著,甚至在考慮開始執行安全 ASI 計畫之前,首要前提是已經存在全球性的 ASI 禁令和強大的執法機制。^([4])

  • ^(^) 我假設你已經接受「不安全」的 ASI 將會非常、非常糟糕。如果不是,這篇文章不適合你閱讀。

  • ^(^) 簡而言之:如果你單方面嘗試構建 ASI,你就是在直接且公開地以武力征服威脅世界。這有時被稱為「關鍵行動」(pivotal action),這是「(極度暴力的)單方面行動,強迫世界進入我認為良好的狀態」的代稱。

  • ^(^) 這裡指的是某種希望具有實質意義的「控制」定義。

  • ^(^) 這是諸如 MAGIC 等提案背後的理論依據。

參與討論

Lesswrong

相關文章

其他收藏 · 0

收藏夾