思考通用人工智慧(AGI)的多重維度

Benedict Evans·

我們該如何思考一個本質上未知且不可知的風險,特別是當專家們唯一的共識是他們也毫無頭緒的時候?

「名為喬的邏輯機」(A Logic Named Joe)手稿

1946 年,我的祖父以「莫瑞·倫斯特」(Murray Leinster)為筆名,發表了一篇名為《名為喬的邏輯機》的科幻故事。故事中,每個人都擁有一台連接到全球網路的電腦(稱為「邏輯機」),處理從銀行業務、報紙閱讀到視訊通話的一切事務。有一天,其中一台名為「喬」的邏輯機開始對網路上的任何請求提供「有幫助」的答案:例如發明一種無法檢測的毒藥,或是建議搶劫銀行的最佳方法。恐慌隨之而來——「檢查你的審查電路!」——直到人們搞清楚該拔掉哪裡的插頭。(與此同時,我的另一位祖父則在利用電腦監視德國人,隨後是蘇聯人。)

自從我們開始思考電腦以來,我們就一直在想,它們是否能從單純處理打孔卡和資料庫的機器,躍升為某種「人工智慧」;我們也在思考這意味著什麼,以及我們在使用「智慧」這個詞時究竟想表達什麼。有一個老笑話說,「AI」指的就是那些還行不通的東西,因為一旦行得通了,人們就會說「那不是 AI,那只是軟體」。計算機擁有超越人類的數學能力,資料庫擁有超越人類的記憶力,但它們除此之外什麼也不會,也不理解自己在做什麼,就像洗碗機不理解碗盤,電鑽不理解孔洞一樣。電鑽只是機器,資料庫雖然「超越人類」,但它們只是軟體。不知為何,人類擁有某種不同的特質,而在某種程度上,狗、黑猩猩、章魚和許多其他生物也是如此。AI 研究人員將這種特質稱為「通用智慧」(general intelligence),因此創造出這種智慧就被稱為「人工通用智慧」——AGI。

如果我們真的能在軟體中創造出某種在意義上等同於人類智慧的東西,顯而易見,這將是一件大事。我們能否製造出具備推理、計劃和理解能力的軟體?至少,這將極大地改變我們可以自動化的範疇;正如我祖父和成千上萬名科幻作家所指出的,這可能意味著更多。

自 1946 年以來,每隔幾十年就會出現一波興奮浪潮,認為類似的目標近在咫尺,但每次隨之而來的是失望和「AI 寒冬」,因為當時的技術路徑遇到瓶頸,我們意識到還需要無數個未知的突破。1970 年,AI 先驅馬文·明斯基(Marvin Minsky)聲稱「在三到八年內,我們將擁有一台具備普通人通用智慧的機器」,但每當我們認為找到了一種可以實現目標的方法時,結果證明它只是更多的軟體(或者根本行不通)。

眾所周知,18 個月前興起的大型語言模型(LLMs)推動了另一波浪潮。以前認為 AGI 可能還需數十年的資深 AI 科學家,現在暗示它可能近得多。極端情況下,所謂的「末日論者」(doomers)認為,目前的研究所自發產生 AGI 的風險是真實存在的,且可能對人類構成威脅,並呼籲政府採取緊急行動。這其中有些來自於追求競爭壁壘的自私企業(「這非常危險,我們正盡快開發,但別讓其他人做」),但也有許多是出於真心。

(順帶一提,我應該指出,末日論者擔心的「生存風險」——即 AGI 可能想要並有能力摧毀或控制人類,或將我們視為寵物——與更平庸的擔憂是完全獨立的。後者包括政府如何將 AI 用於人臉識別AI 偏見AI 深偽技術,以及所有人們會濫用 AI 或因其出錯的方式,就像對待其他任何技術一樣。)

然而,對於每一位認為 AGI 可能近在眼前的專家,都有另一位持反對意見。有些人認為 LLM 可以一路擴展到 AGI,而另一些人則認為,我們仍然需要無數個未知的進一步突破。

更重要的是,他們都會承認自己其實並不知道。這就是為什麼我使用「或許」或「可能」之類的詞——我們的第一站是訴諸權威(儘管這常被視為邏輯謬誤),但權威告訴我們,他們不知道,且意見不一。

他們不知道,無論是哪種結果,因為我們對於什麼是真正的通用智慧並沒有一個連貫的理論模型,也不知道為什麼人類似乎比狗更擅長,也不知道人類或狗與烏鴉章魚究竟有何不同。同樣地,我們不知道為什麼 LLM 看起來效果這麼好,也不知道它們能進步到什麼程度。我們在基礎和機械層面上了解神經元和標記(tokens),但我們不知道它們為什麼會「奏效」。我們對其中的部分環節有許多理論,但我們不了解整個系統。除非訴諸宗教,否則我們不知道有任何理由說明 AGI 無法被創造出來(它似乎沒有違反任何物理定律),但除了作為一個概念,我們不知道如何創造它,也不知道它究竟是什麼。

因此,有些專家看到 LLM 的戲劇性進展後說「或許吧!」,而另一些人則說「或許,但可能不會!」,這從根本上說是一種直覺和本能的評估,而非科學的評估。

事實上,「AGI」本身就是一個思想實驗,或者可以說是一個占位符。因此,我們必須警惕循環定義,以及通過定義來賦予某物存在感、確定性或必然性。

如果我們一開始就將 AGI 定義 為一種實質上的新生命形式,在「各個」方面都與人類平等(除了物理形式),甚至包括「意識」、情感和權利等概念,然後假設只要有更多的算力,它就會變得聰明得多(甚至假設地球上還有大量閒置算力可用),並假設它能立即突破任何控制,那麼這聽起來確實很危險,但實際上,你只是在預設結論。

正如安瑟倫(Anselm)所證明的,如果你將上帝定義為存在的實體,那麼你就證明了上帝存在,但你無法說服任何人。事實上,許多關於 AGI 的對話聽起來就像過去某些神學家和哲學家試圖通過基本原理推導上帝本質的嘗試。你的論證內部邏輯可能非常強大(哲學家花了幾個世紀才搞清楚為什麼安瑟倫的證明是無效的),但你不能那樣創造知識。

同樣地,你可以調查許多 AI 科學家,詢問他們「感覺」有多不確定,並得出一個統計上準確的平均結果,但這本身並不能產生確定性。就像調查一個統計上準確的神學家樣本無法產生關於上帝本質的確定性一樣;或者,或許將足夠多的次級抵押貸款捆綁在一起可以產生 AAA 級債券——這是另一種試圖通過平均不確定性來產生確定性的嘗試。預測科技時最基本的謬誤之一就是說「人們過去對 X 的看法錯了,所以他們現在對 Y 的看法一定也錯了」。領先的 AI 科學家以前錯了,絕對不能告訴我們他們現在也錯了,但這確實提醒我們要猶豫。他們可能同時都錯了。

與此同時,你怎麼知道通用智慧會是什麼樣子?以賽亞·柏林(Isaiah Berlin)曾暗示,即使假設宇宙原則上有一個目的,且原則上是可以被發現的,也沒有先驗理由說明它必須是有趣的。「上帝」可能是真實的,但很無聊,而且不在乎我們,我們也不知道我們會得到什麼樣的 AGI。它可能會擴展到比人類聰明 100 倍,或者它可能只是快得多但並不更聰明(智慧「僅僅」關乎速度嗎?)。我們可能會創造出極其有用但並不比狗更聰明的通用智慧——畢竟,狗確實擁有通用智慧,而且像資料庫或計算機一樣,擁有一種超越人類的能力(嗅覺)。我們不知道。

再進一步,當我聽馬克·祖克柏談論 Llama 3 時,我注意到他將「通用智慧」描述為一種會分階段到來的東西,不同的模態一次出現一點。也許人們會指著 Llama 6 或 ChatGPT 7 的「通用智慧」說:「那不是 AGI,那只是軟體!」我們創造 AGI 這個詞是因為 AI 變得只代表軟體,也許「AGI」也會面臨同樣的命運,而我們需要再發明另一個詞。

這種根本的不確定性,甚至在我們討論的內容層面上也是如此,或許就是為什麼所有關於 AGI 的對話似乎都會轉向類比。如果你能將其與核分裂相比,你就知道該期待什麼,也知道該做什麼。但這不是分裂,不是生物武器,也不是隕石。這是軟體,它可能轉化為 AGI,也可能不會,可能具有某些特徵,其中一些可能是壞的,而我們不知道。雖然巨大的隕石撞擊地球只能是壞事,但軟體和自動化是工具,在過去 200 年裡,自動化有時對人類不利,但大多數情況下它是一件非常好的事情,我們應該想要更多。

因此,我已經使用了神學作為類比,但我更喜歡的類比是阿波羅計畫。我們有重力理論,也有火箭工程理論。我們知道火箭為什麼不爆炸,如何模擬燃燒室的壓力,以及如果我們把火箭做大 25% 會發生什麼。我們知道它們為什麼向上飛,以及它們需要飛多遠。你可以把土星五號火箭的規格交給艾薩克·牛頓,他原則上可以完成數學計算:這麼多重量,這麼多推力,這麼多燃料……能到達那裡嗎?我們在這裡沒有對等物。我們不知道 LLM 為什麼有效,它們能變得多大,或者它們還需要走多遠。然而,我們不斷把它們做大,而它們似乎確實越來越接近。它們能到達那裡嗎?也許吧,是的!

關於這個主題,有些人認為我們正處於 AI 或 AGI 的經驗階段:我們在不知道為什麼有效的情況下建造東西並進行觀察,理論可以稍後再補上,有點像伽利略出現在牛頓之前(有一個古老的英國笑話,說一個法國人說:「這在實踐中都很好,但在理論上行得通嗎?」)。然而,雖然我們可以憑經驗看到火箭升空,但我們不知道月球有多遠。我們無法在圖表上標出人類和 ChatGPT,然後畫一條線來說明一個何時會追上另一個,即使只是推斷目前的增長率。

所有的類比都有缺陷,而我的類比缺陷在於,如果阿波羅計畫出錯,其負面影響在理論上也不是人類的終結。在我的祖父之前,還有一位雜誌作家談論過未知的風險:

我前幾天在報紙上讀到那些試圖分裂原子的傢伙,重點是他們對分裂後會發生什麼完全沒有頭緒。可能沒事。另一方面,也可能出事。如果一個人在分裂原子後,突然發現房子冒煙,自己被炸得肢體橫飛,那他無疑會覺得自己像個大傻瓜。

《好樣的,吉夫斯》(Right ho, Jeeves),P.G. 伍德豪斯,1934 年

那麼,對於真實但未知的風險,你偏好什麼樣的態度?你更喜歡哪種思想實驗?我們可以回到半被遺忘的大學哲學(帕斯卡的賭注!安瑟倫的證明!),但如果你「無法」知道,你是擔心,還是聳聳肩?我們如何思考其他風險?隕石對 AGI 來說是一個糟糕的類比,因為我們知道它們是真實的,知道它們可能摧毀人類,而且它們完全沒有好處(除非它們非常非常小)。然而,我們並沒有真正在尋找它們。

不過,假設你認定末日論者是對的:你能做什麼?這項技術在原則上是公開的。開源模型正在激增。目前,LLM 需要大量昂貴的晶片(輝達在過去 12 個月內銷售了 475 億美元,且供不應求),但從十年的眼光來看,模型會變得更高效,晶片將無處不在。最終,你無法禁止數學。在幾十年的尺度上,它無論如何都會發生。如果你必須使用核分裂的類比,想像一下如果我們發現了一種方法,讓任何人都可以在車庫裡用家用材料製造炸彈——祝你好運能阻止這一切。(末日論者可能會回應說,這回答了費米悖論:在某個時間點,每個文明都會創造出 AGI,然後它把他們變成了迴紋針。)

不過,在預設情況下,這將遵循所有其他 AI 浪潮,變成「僅僅」更多的軟體和更多的自動化。自動化總是會產生摩擦性的痛苦,回溯到盧德分子,而英國的郵局醜聞提醒我們,不需要 AGI,軟體也能毀掉人們的生活。LLM 將產生更多的痛苦和更多的醜聞,但生活仍將繼續。至少,這是我自己更傾向的答案。

Benedict Evans

相關文章

  1. 移動的目標:現代基於 Transformer 的代理程式早已是弱人工超級智慧

    Lesswrong · 4 個月前

  2. 大型語言模型若為泡沫,AI對齊的未來將走向何方

    Lesswrong · 4 個月前

  3. 從大型語言模型到幻覺:常見人工智慧術語簡明指南

    Techcrunch · 11 天前

  4. 為何我認為通用人工智能(AGI)並非迫在眉睫

    Hacker News · 2 個月前

  5. 《類腦通用人工智能安全導論》新版本發布

    Lesswrong · 3 個月前