自由主義的科技
本文探討了在人工智慧進步的背景下,功利主義與自由主義之間的緊張關係,並主張我們必須有意識地開發能保護個人自由的技術,而非僅僅追求集體福利或控制。
最初發表於 No Set Gauge。
《狄多建立迦太基》(Dido Building Carthage),J. M. W. 泰納(J. M. W. Turner)著。在每一次技術革命中,我們都面臨一個選擇:為自由而建設,或是眼睜睜看著他人為了控制而建設。
——布倫丹·麥考德(Brendan McCord)
有兩種道德框架解釋了現代道德的進步:功利主義(Utilitarianism)與自由主義(Liberalism)。
功利主義主張:「為最多的人謀求最大的利益」。它認為我們應該最大化福祉,無論代價為何。
自由主義主張:「每個人都有其專屬的自由領域」。我們應該賦予每個人一個他人不可侵犯的界限,例如對其身體和財產的控制權,然後只要這些界限不被侵犯,就任由事情發展。
(在哲學家們出現並對我進行「取消」之前:這裡的「功利主義」和「自由主義」是兩種觀點的標籤,它們與這些詞彙的通常用法大致對應,但並不完全一致。我所討論的特定軸線源於我對喬·卡爾史密斯(Joe Carlsmith)著作的閱讀,稍後我將在文中詳細引用他的話。另外,對於美國讀者來說:「自由主義」在這裡並非「左翼」的同義詞。)
現代性的一些重大道德進步包括:
- 女性權利
- 廢除奴隸制
- 一國之內所有公民在法律面前一律平等
- 將戰爭視為應避免的異端,而非「政治通過其他手段的延續」
- 同性戀權利
- 對動物福利日益增長的重視
上述每一項都可以被視為本質上的功利主義計畫,或本質上的自由主義計畫。例如,將侵略戰爭視為惡行,既有利於福祉(減少人們過早慘死的數量),也是相信「你揮動拳頭的權利止於我的鼻子開始之處」(無論是在個人還是國家層面)的直接結果。女性權利既能通過直接減少性別暴力到對經濟增長的連鎖反應來提升福祉,也是「人人在法律面前平等、有權做出自己的選擇並設定自己的界限」這一理念的直接應用。
功利主義目標是自由主義目標的結果。如果你給予每個人界限、免受暴力的保護,以及上帝和/或政府賦予的財產權,那麼亞當·斯密(Adam Smith)、正和博弈貿易以及其他各種神靈就會介入,確保福祉最大化(至少如果你願意接受一系列假設的話)。更直觀且更普遍地說,每個人都會自然地試圖實現自己想要的目標,而當你禁止侵犯界限的行為時,每個人都將被迫通過雙贏的合作而非暴力來實現目標。
自由主義目標是功利主義目標的結果。如果你想最大化效用,那麼哈耶克(Hayek)、政治學家以及過去兩個世紀人類的道德弧線都會出現,要求你讓人民自己選擇,並擁有自己的界限與權利。當人們能根據所掌握的局部信息做出決定時,效率難道不是更高嗎?女性能夠追求任何她們想要的工作,或者同性戀者免於迫害,這創造了多少「吉咖效用」(giga-utils)?發達國家的財富以及由此產生的所有福祉,難道不是源於那些確保自由與法律面前平等、執行穩定規則並避免專制獨裁的制度嗎?
許多關於功利主義的討論都集中在「電車難題」之類的問題上,這些問題強迫你在福祉損失與界限侵犯之間做出選擇。然而,除非你恰好住在流氓實驗哲學家經常光顧的電車軌道附近,否則你會發現這種情況基本上從未發生過(如果你在哲學上足夠敏銳,你也會意識到,作為一個現實生活中的人類,即使侵犯界限看起來是個好主意,你也不應該這樣做)。
然而,與其他事物一樣,當情況變得足夠極端時,兩者的尾端就會分離。福祉所強調的「好」與自由所強調的「好」在極限情況下確實會發生分歧。但在現實世界中,我們真的會被推向極端的哲學領域嗎?我相信我們不需要擔心流氓實驗哲學家的突然湧入,或是電車軌道的建設熱潮。但我們可能需要擔心那種「類神般的 AI」——每一位主要的 AGI 實驗室領導者、預測市場,以及那些對每件事的預測都準確得令人討厭的匿名網民都警告說,這種 AI 可能在幾年內就會到來。
有效利他主義者(Effective Altruists)非常值得稱讚,他們多年來一直認真對待 AI 與道德哲學的交集。然而,他們的主要方法是完善「對齊」(alignment)——即可靠地引導 AI 朝向某個目標的能力——同時並行研究出正確的道德哲學,以便將 AI 與之對齊,從而引導它朝向正確的事物。不出所料,關於第二部分的爭論尚未解決。(此外,從初步觀察來看,激勵機制的現實意味著編碼到 AI 中的價值觀將是 AI 實驗室領導層想要的,或者是客戶或政府強加給他們的改變,而不是學術界構想的理想狀態。)
在這篇文章中,我並不打算解決道德哲學問題。事實上,我不認為「解決道德哲學」是一件你能做(或應該做)的事情。相反,我擔心的是,在默認情況下,近未來的技術(尤其是 AI)可能會差異化地加速功利主義目標而非自由主義目標。我的希望是,差異化的技術發展——加速某些技術而非其他技術——可以修正這種失衡,並幫助道德進步繼續邁向一個在多種視角下都堪稱美好的世界,而不僅僅是單一視角。
真正的 Clippy 是我們一路上結交的朋友
喬·卡爾史密斯有一系列優秀的文章,題為《AGI 時代的他者性與控制》(Otherness and control in the age of AGI)。這是關於「氛圍」(vibes)的哲學,但做得很好,且核心充滿了人性。
他首先提醒我們:艾利澤·尤德考斯基(Eliezer Yudkowsky)認為我們都會死。我們不知道如何讓 AI 精確地關心人類價值觀,AI 的能力會飛速提升,而它們對我們價值觀的關心卻不會相應增加,它們將吞噬世界。一個常見的思想實驗是「迴紋針最大化 AI」,有時被稱為「Clippy」(取自那個常被惡搞的微軟 Office 功能)。這個思想實驗的重點是,為了任何目標(例如迴紋針)進行強力優化,都意味著要接管宇宙並將其填滿該事物,並在此過程中摧毀其他一切。卡爾史密斯在他的文章《比 Clippy 更友善》(Being nicer than Clippy)中寫道:
的確,在許多方面,尤德考斯基的 AI 噩夢正是「所有界限被侵蝕」的噩夢。納米機器人吃穿每一道牆,很快,單一的模式將無處不在。畢竟:是什麼讓界限具有約束力?在尤德考斯基的世界裡(他錯了嗎?),只有兩樣東西:硬實力和倫理。但 AI 將獲得所有的硬實力,卻沒有任何倫理。所以沒有任何牆壁能擋住它們。
AI 之所以會成為這種迴紋針最大化者,是因為尤德考斯基的哲學強調了一些數學結論,指向:「如果你不繞圈子跑,或者不絆到自己的腳,或者不隨意放棄你說你想要的東西,我們就可以將你的行為視為對應於 [期望效用最大化]」(來源)。基於此,尤德考斯基學派認為唯一的出路是非常精確地將正確的終極價值觀編碼到 AI 中。這反過來又比教導 AI 變得聰明更難,因為:「對於像『環境到底是什麼樣的?』之類的問題,存在著唯一的答案或一組答案。……[因此] 當你有錯誤的信念時,現實會打擊你的錯誤預測……相比之下,當涉及到效用函數的選擇時,存在著無限的自由度」。
所以:任何足夠聰明的東西都是一枚瞄準宇宙中所有物質之全體化排列的火箭。你需要將火箭精確地瞄準目標,否則它會飛入某些無關的太空虛空,而你將失去一切。
需要明確的是,對尤德考斯基來說,這是對足夠聰明的事物行為的事實預測,而不是一種認為正確的道德在這種意義上是功利主義的規範性陳述。如果屬實,這將是重大且非常棘手的問題。
現在,你可能會想起,即使是人類之間,對於烏托邦應該是什麼樣子也存在分歧。當然,AI 安全領域的一個標準觀點是,我們面臨的主要技術問題是將 AI 可靠地指向任何目標,因此爭論「猴子政治」(如卡爾史密斯所言)是毫無意義的政治博弈,只會分散人類應對技術挑戰的精力。
然而,卡爾史密斯在他的另一篇文章中指出,兩個主體之間任何程度的價值差異都可能導致其中一個在另一個眼中成為「迴紋針製造者」:
是什麼力量在人類與人類的情況下防止了極端的古德哈特定律(Goodhart's law),但在 AI 與人類的情況下卻沒有?例如:是什麼阻止了古典功利主義者在反思後分裂成無數個略有不同的變體,每個變體都使用略有不同的最佳快樂概念(快樂素-1、快樂素-2 等)?那麼,對於彼此而言,他們難道不會因為那些微調過的完美幸福概念而成為彼此眼中的「迴紋針製造者」嗎?
這不僅存在於不同主體之間,也存在於某個時刻的你與稍後時刻的你之間:
[..] 如果你讀了一本書,或看了一部紀錄片,或墜入愛河,或得了某種消化不良 [..] 你的心從此不再完全相同,而且這並非出於理性 [..那麼] 在這荒涼且無神的光錐中,唯一可能的非平凡長期價值向量就被熄滅了?!等等,好吧,我有個計劃:這個精確的「人-時刻」需要成為獨裁者。這很殘酷,但這是唯一的辦法。你的納米機器人準備好了嗎?噢等等,太遲了。(好吧,那現在呢?
相關文章