比較優勢與人工智能
我批評了利用李嘉圖比較優勢理論來論證人類在超人工智慧時代仍具經濟地位的觀點,並指出該理論忽視了權力失衡、資源競爭以及人工智慧根本不需要與人類貿易的事實。
最近看到 Seb Krier(Google DeepMind 的前沿政策負責人)建立了一個簡單的網站,顯然是在支持「李嘉圖比較優勢理論(Ricardian comparative advantage)將在人工通用智能(ASI)時代為人類提供工作」這一觀點,這讓我感到有些難過。那種認為比較優勢意味著先進 AI 自動具備安全性的論點由來已久,且已被多次反駁。鄭重聲明,我認為這是一個糟糕的論點,透過比較優勢來思考 AI 風險是毫無益處的。
Seb Krier 的網頁應用程式,允許使用者透過拖放人類或 AI 到不同工作領域來分配勞動力。
論點內容
比較優勢定律指出,貿易的雙方都可以從彼此身上獲利,即使其中一方在所有事情上的生產力都較低,最終雙方都能變得更好。有些人將此與 AI 風險建立了一種天真的聯繫:與 AI 相比,人類在所有事情上的生產力也會較低,但由於這條定律,人類仍將保持重要性,能保留一些工作並獲得報酬。他們由此得出結論,認為情況會好轉,我們不應過度擔心 AI 風險。即使我們在所有方面的生產力都低於 AI,我們仍然可以與 AI 進行貿易。Seb 和其他人似乎認為,這在某種程度上甚至對 ASI 也適用。
這會證明得太多,且這不是應用數學的方式
有幾個理由可以立即駁回這整個論點。最主要的一點是,這會「證明得太多」(prove too much)。這似乎暗示當一方擁有壓倒性的力量、先進程度和生產力時,另一方也會安然無恙——沒什麼好擔心的。它假設在兩個智慧程度差異巨大的物種之間會發生某種貿易關係。有許多理由讓我們相信事實並非如此。我們不跟螞蟻做生意。我們以前沒跟美洲原住民做多少生意,且協議往往是強加的且具欺騙性的。以螞蟻為例,我們甚至不會考慮與牠們簽署貿易協議或交換商品。我們只是拿走牠們的東西,或者不理會牠們。在其他案例中,直接奪取他人的財物、奴役他們或殺死他們,反而更有利可圖。總之,這個論點證明得太過頭了。
此外,將數學定理模糊地進行模式匹配(pattern matching)到現實中,並不能證明 AI 是安全的,現實的結構並非如此。「天下沒有白吃的午餐」定理並不能證明不會有比我們更聰明的東西存在;哥德爾不完備定理也不能證明人類大腦是不可計算的。比較優勢是一個簡單的數學定理,用於解釋經濟學中的貿易模式。你不能看著一個簡單的線性代數定理,就斷定 AI 和人類會和平共處。你用某種標準定義生產力,得到不同商品的生產力向量,然後得到一個勞動力分配向量。這是線性代數中一個簡單的數學事實。這種天真的模糊模式匹配並非將數學應用於現實世界的方式,ASI 不會因此而變得安全。
深入的反駁論點
假設你還沒被說服,想更深入探討。比較優勢完全沒有提到要將權力留給人類,或是人類會受到良好對待。它只涉及貿易關係,並未提到要將權力留給生產力較低的一方,或善待他們。
沒有任何機制能阻止生產力較高的一方隨著時間推移獲取更多資源——購買物資、收購土地、買下它所需的關鍵資源——然後在某個時間點讓另一方一無所有。
比較優勢並未說明什麼是「最優行動」。它只說在某些情況下你們雙方都可以從貿易中獲利,但它並未說這是最優的選擇。在現實中,直接從對方手中奪取資源、奴役他們、不尊重他們,往往才是更優的策略。
Seb Krier 建立的這個網站還有另一個大問題:他觀察的是 10 個工作者和 10 個 AI,以及如何在他們之間分配勞動力。但你可以隨意增加 AGI 的數量。我們擁有的 GPU 和基礎設施數量正在大規模且持續地擴張。你可以擁有大量增加、呈指數級增長的人工智慧數量。這嚴重破壞了比較優勢:生產力較高的一方的數量一直在增加。
比較優勢完全沒有提到 AI 是否會維持生物圈的運作。當 ASI 判定我們為了維持充足氧氣和合適溫度所做的一切,與它想在世界上填滿數據中心、核電廠和巨大太陽能板的目標不相容時,會發生什麼事?與破壞環境所能獲得的優勢相比,它從與人類貿易中實際賺到的錢到底有多少?
在那個應用程式中,人類的最優策略是製作手工藝品、手工家具,以及為其他人類提供心理諮商——這些對 AI 來說毫無意義。現實情況是,我們無法提供任何 AI 無法廉價自製的有價值東西。如果我們在 AI 渴望的任何事物上生產力為零,而僅在只有我們需要、AI 不需要的事物上有微小生產力,那就沒有貿易潛力。如果你對 AI 實際需要的任何東西都沒有生產力,比較優勢中就不會發生貿易。我們到底能跟螞蟻交易什麼?我們可以給牠們喜歡的東西,比如糖。但螞蟻能給我們什麼回報?
即使我們可以與 AI 交換某些東西並獲得回報,人類也有「最低工資」——我們需要攝取足夠的熱量,我們需要空間,我們需要氧氣。並不能保證我們能提供足夠抵銷這些成本的生產力。我們的速度極慢,且我們需要食物、住所和所有 AI 不需要的東西。
結論
我感到難過,因為 Google DeepMind 的人竟然認為這是一個現實的希望理由。他在 Google DeepMind 顯然擔任著負責治理工作的重要職位,我希望能在這裡稍微說服他。我不認為比較優勢理論(RCA)是一個嚴肅的立場,它不是思考 AI 與人類共存的合理方式。公平地說,他也提出了一些保留意見,並告訴我他不認為單憑比較優勢就能確保 AI 的發展一帆風順。
相關文章