國際人工智慧條約具體內容為何?是一個糟糕的質疑理由
我認為目前對於國際人工智慧條約技術細節不明確的質疑並非真正的障礙,只要各國擁有共同目標且專家對風險與驗證可行性達成共識,我們就應該效法核武條約的經驗開始談判。
我聽過許多人說,目前還不清楚全球人工智慧(AI)條約的技術輪廓會是什麼樣子。這確實是事實——但這實際上並不是談判國際條約的障礙。
我將試著解釋為什麼這不是一個合理的反對理由,簡而言之:如果各國擁有明確且大致共同的目標,談判最終就能達成強而有力的條約。因此,重要的問題不在於確切的規則,關鍵在於是否真的存在需要採取行動的全球共同風險——而專家們一致認為確實存在;以及核查與執行是否可行——而專家們表示是可行的。所以問題不在於技術層面,而是在於我們是否能達成協議。儘管存在著膚淺的「在他們停止之前我們不能停止」這類論調,我們依然可以且應該嘗試做得更好。
為了說明為什麼我們不需要先弄清楚所有細節,值得探討一下其他的條約。
大流行病條約(任務失敗,但過程尚可)
我將從過去五年我觀察最密切的例子開始。大流行病條約是在 2021 年提出的,根據聯合國的說法,當時「世衛組織成員國一致認為迫切需要一項具有法律約束力的國際文書」。它本應解決我們在 COVID 期間遇到的所有問題。遺憾的是,這並不包括預防大流行病,而且一旦過了那個時點,就沒人能對應該做什麼或下次該怎麼辦達成共識。那麼,如果我們無法達成任何共識,條約能做什麼?大多是一些通用的防疫措施——「承諾以『全健康』(One Health)方法預防大流行、加強國家衛生系統、建立協調的財務機制,以及為衛生緊急情況建立全球協調的供應鏈和物流網絡」。
當歐洲理事會主席在 2021 年中提出這項建議時,上述內容有多少達成了共識?基本上沒有。實際的承諾是什麼?嗯,這很複雜,但簡而言之就是沒有任何實質承諾。條約堅持各國必須保留對其國家衛生系統的控制權,沒有人可以告訴他們該做什麼或怎麼做——這聽起來非常像當初導致 COVID-19 蔓延的失敗模式。許多人對條約應有的功能有不同的願景,從全球疫苗正義、增強全球公共衛生、為應對氣候變遷問題提供資金、供應鏈韌性,到在大流行病規劃中考慮動植物健康,最終它成了人們提議的各種隨機事項的雜燴。但這裡的失敗在於願景——目前還不清楚在每個人都同意的情況下,世界能從條約中得到什麼,而這個缺失從未得到解決。
這顯然是個問題,但並非我們提議建立全球條約以禁止不安全的人工超級智能(ASI)的核心問題。對於那些要求簽署此類條約的人來說,我們對於需要停止什麼是有共識的,即:停止構建不安全的 ASI。問題全在於如何實現這一點。因此我們應該看看另一個例子,我認為最好的類比是核武器。
核條約
如果你對核武器條約的歷史有所了解,你讀到這個標題時一定會立刻問:「哪一個?」因為選擇實在太多了——1963 年的《部分禁止核試驗條約》、1968 年的《不擴散核武器條約》(NPT)、1972 年的《戰略武器限制談判》(SALT)、1974 年的《反彈道導彈條約》(ABM)、1980 年的《核材料實物保護公約》(CPPNM),以及 2010 年的《新削減戰略武器條約》(New START)。這還沒算上將近半打的區域性「無核武器區」條約。
為什麼會有這麼多條約?因為目標——防止使用核武器——是廣泛認同的。但實現該目標的確切方法卻很棘手。這導致了許多不確定性,並需要多個不同的條約來解決問題的不同部分(從試驗到擴散),但目標始終是指路明燈。這意味著每當出現疑慮時,各國都會努力弄清楚需要做什麼來達成「不發生核戰爭」的目標,以及哪些規則能讓世界遠離那種結局。即使在條約之外,核大國通常也接受了「不首先使用」的原則,並採取了其他措施來降低意外升級的風險。所有這些都在應對那些承擔不起落後風險的國家之間,複雜的核升級動態。
這對關於 AI 風險的條約有什麼啟示?
對潛在 AI 條約的啟示
目前有十幾項關於 AI 的國際條約建議,其中大多數並非我所討論的內容。許多條約相當於 1959 年的《南極條約》,那是第一項與核相關的條約,但它僅規定各國不得利用南極洲測試核武器或處理廢料。在我看來,類似的提案包括任何除了確保未來系統不會導致全球災難之外,對 AI 進行其他規範的條約。(這並不意味著此類條約是個壞主意,只是它們不是我在此討論的重點。)
其他提案則是試圖直接解決問題。例如,針對 1946 年提議但最終失敗的「巴魯克計劃」(Baruch Plan)的現代對等方案,該計劃曾試圖將所有核武器置於國際控制之下。當時蘇聯的對抗提案也同意目標——防止核武器的生產和使用——但在運作方式上存在分歧。這意味著在幾十年的時間裡,雙方未能達成停止擴散的協議。因為在各方談判開始之前,試圖通過在全球範圍內強加命令來直接解決問題是非常困難且通常無效的。
幸運的是,對於核條約來說,這並不重要。公眾的壓倒性共識是我們不應該發生核戰爭,儘管有人聲稱這是一場只能以災難告終的必然競賽,但核武器在 80 年間(且還在增加中)未曾被使用。條約的細節至關重要,邁向成功的過程確實艱難,且沒有最終的勝利。如前所述,這些是雙邊、多邊和全球條約的混合體。當然,我們仍然擔心核擴散和核戰爭。但到目前為止,這些條約為世界提供了足夠的穩定性以避免災難。
同樣,世界很幸運,核武器的製造在二十年裡進展緩慢,而且在條約制定的過程中,不使用核武器的規範已經建立。但沒有人應該爭辯說,沒有發生核戰爭意味著條約是不必要的——如果有的話,常見的論點是條約過於脆弱且具有偶然性。
我們需要 ASI 條約嗎?是的——即使你認為風險極小,這也是事實。是的,關於風險是否會成真存在爭論,但明確的共識是這是一個風險,我們至少應該有能力制定規則。我們應該擁有一項宏大的條約,還是計劃一次解決一個部分?目前還不清楚。許多條約領域都有數十個重疊的條約;《日內瓦公約》本身就是一系列在幾十年間不斷增加澄清和規則的條約。但我們必須開始行動。那些認為我們距離完全通用人工智慧(AGI)還有十年的人應該感到恐懼,因為現在開始討論這類條約已經太晚了。而那些說我們可能在十年內擁有 ASI 的人,大多已經在疾呼需要一些國際規則。
條約能解決問題嗎?(我們需要其他規則嗎?)
核能受到監管,部分是通過國際機構——這大多不是為了防止全球熱核戰爭,但由於需要控制核材料,這兩者密切相關。在國家層面,核醫學受到監管,輻射暴露水平受到監管,我們還有大量其他與防止第三次世界大戰無關的規則。這並不意味著這些規則不重要。
對於 AI,我們已經需要針對各種用途和誤用進行監管。其中一些可能是國際性的——禁止自主武器、禁止未經同意的色情內容、禁止使用 AI 違反其他國際法。其他則應該是國家甚至地方性的,例如禁止欺騙性使用 AI,或使用 AI 違反其他法律。這就是監管的運作方式。
但這些並不是我們需要的核心 AI 條約,它們只是需要規則的地方。它們應該被推動——只是不能以進一步推遲應對我們面臨的全球災難性風險為代價。
AI「不殺掉所有人主義」條約
要擁有能阻止 AI 引發全球災難的有效條約,有許多問題需要回答。防止創造出失控(misaligned)的 ASI 具體需要什麼?哪些晶片應該被追蹤?誰應該被允許使用它們?用於哪種類型的模型開發?必須具備哪些控制或安全措施?我們應該如何衡量危險的能力?界線應該劃在哪裡?哪些國家需要首先達成一致?當只有少數國家在競賽中領先時,我們如何管理多邊協調?在條約生效時,我們會禁止現有的前沿系統嗎?還是各組織能夠在有額外保障措施的情況下構建能力稍強的系統?那些保障措施應該是什麼?
幸運的是,我們不需要為了開始談判條約而對所有這些問題給出最終答案。我們甚至不需要為了簽署條約而有最終答案——許多條約都有定期更新規則的機制。但我們需要一個清晰的願景:在我們確定安全之前,沒有人可以構建 ASI;當人們試圖用聰明的方法規避現有規則時,他們會被告知停止,並被告知規則將會更新。必須告訴各公司,他們通往 ASI 的競賽已經結束,風險太高,沒有人能贏。必須告訴各國,無論他們認為從構建 ASI 中能獲得什麼地緣政治優勢都是不被允許的,因為在沒有明確安全規則的情況下贏得競賽,極有可能殺死我們所有人。
這會是一項單一條約,還是需要隨著時間推移簽署多項條約?我不知道。這也不重要。但它現在就必須開始,因為國際協調需要時間且進展緩慢。我們不需要在開始之前就明確結果,不確定性也不是等待建立動力和佈局的理由,這樣我們才能討論哪些是可以限制或禁止的、如何核查,以及如何及為何確保參與者會選擇遵守而非背叛。鎖定細節是有風險的,但等到我們需要立即行動時才動手並不能讓最終的應對措施變得更好——恰恰相反,因為延遲消除了探索細節的能力。顯然,框架條約的工作至少在幾年前風險在全球範圍內變得清晰時就應該開始了,鑑於超級智能迫在眉睫的風險,我們只能希望現在還不算太晚。
簡而言之,說我們現在還不能討論條約,是因為我們不知道規則應該是什麼,這是一個缺乏歷史常識且推論拙劣的反對意見。