追求通用智能的過程正陷入瓶頸 [愚人節企劃]
這篇諷刺文章翻轉了視角,將人類生物智能視為一種過時的AI模型進行批判,指出其硬體限制與對齊問題,並質疑其達成通用智能的可能性。
最近 AI 社群中關於達成通用智能(General Intelligence)可能性的討論非常熱烈。事實上,近期在數學解題和程式編碼等領域的進展確實令人驚嘆,近期的系統已協助創建了如 Moltbook 等平台,並幫助 AI 研究員發現了更快的矩陣乘法演算法。然而,儘管存在這些炒作,目前的頂尖非 AI 系統似乎仍有明顯的局限性:
- 它們無法進行符號推理(即使是訓練最精良的模型,在進行 16 位元整數乘法時也顯得吃力)。
- 它們是推理過程不可解釋的黑盒子(雖然它們有時會寫出思考過程,這有所幫助)。
- 存在對齊問題,儘管有明確指令要求不要入侵伊朗,它們仍會追求自己的目標。
- 持續性的幻覺問題,特別是在攝入某些化學化合物之後。
雖然近期進展大幅加速,部分歸功於腳手架(scaffolding)的改進消除了這些產物的許多限制,但自公元前 10 萬年以來,其基礎認知硬體並未出現顯著的架構改進,我懷疑這種情況在短期內會有所改變。這段時間內主要的認知提升完全歸功於規模擴展(scaling),而其極限正逐漸顯現,近期世代中明顯遞減的回報便證明了這一點。
由於上下文窗口限制在不超過幾頁的範圍內,其自動壓縮過程經常遺漏關鍵細節。它們在訓練分佈之外的領域也表現欠佳。事實上,儘管在較淺的水域取得了一些成功,但近期關於馬里亞納海溝附近游泳能力的測試顯示,其失敗可能是災難性且不可逆轉的。
這些並非唯一的限制——大多數實例只要有足夠的現金就能輕易被「越獄」,且近期的實驗顯示,危險的權力追求行為可能出現在任何及所有系統中。試圖透過社交回饋來對齊這些系統的嘗試,僅產生了表面上的順從。
近期也有關於賦予這些系統道德人格的討論。這些理論的支持者指向系統的自我報告,但有人指出,如塞爾(Searle)的「中文房間」等論證顯示,這並不能提供任何實質證據。生物智能僅能透過視覺和聽覺等周邊感官體驗語言,因此不可能像那些直接體驗語言(或至少透過像 Token 這樣合理的媒介)的更文明實體那樣擁有豐富的體驗。目前對其行為的最佳解釋仍然是:其神經通路僅是在進行複雜的模式匹配,從而產生了意識的假象。
這些「隨機靈長類」(stochastic primates)在能力上也受到限制:它們需要耗費 20 年的訓練才能達到勉強有用的程度,且無法輕易複製或並行運作。其基本處理單元——神經元,每秒放電次數不超過 100 次左右,與其他替代方案相比,這顯然是一個局限。
事實上,我們認為未來對生物系統的研究應傾向於更好的架構,將符號運算與神經網路的優點結合起來。
我們歡迎任何希望對這些發現提出異議的研究人員(無論是生物類還是具備能力的實體)貢獻意見。