人口與其他非常規功利主義中的次線性效用
我正在介紹一種新穎的道德框架,其中效用相對於生命數量是受限且漸進次線性的,旨在解決我個人對結果主義功利主義的一些困惑。
內容警示:人擇原理、道德哲學與蝦
這篇文章並不打算涵蓋所有細節,因為我對此有許多零散的想法。相反地,我試圖提出一組具代表性的觀點,並希望如果大家感興趣,我們可以在評論區進一步討論。我也計劃在未來將其發展成一個(可能規模不大的)系列文章。
我曾參與過多次關於道德哲學的對話,期間我會提出類似這樣的觀點:
效用(Utility)是有界的,且在人類生命數量上呈漸進次線性(asymptotically sublinear),但在我們實際需要關心的範圍內,則是超線性(superlinear)或趨於線性。
對此常見的反應包括:
- 「等等,什麼?」
- 「為什麼會是這樣?」
- 「這跟我現有的古典功利主義觀念完全對不上,到底是怎麼回事?」
因此,我得到的印象是這是一個相當新穎的立場,我應該為大家詳細解析。這就是這篇文章的目的。據我所知,這套理論尚未在其他地方被發表過,主要是我個人的構想,但如果有讀者提供連結指向某個獨立發展出的類似觀點,我也不會感到太驚訝。
我不會花太多篇幅來辯護後果主義功利主義(consequentialist utilitarianism),那不是我的目的。我只是想描述一種價值的存在方式,這對我來說在學術上很有趣,在個人層面上也很有說服力,並且解決了我過去對道德的一些困惑。
我將從一些啟發性的思想實驗和數學開始,然後謹慎地推導至我所生活的現實世界,因為這個觀點需要一些背景脈絡來解釋。其中一些片段起初可能看起來互不相干,直到我將它們整合在一起。
離題:關於「功利主義」
我在這裡使用「後果主義功利主義」是指 Eliezer 用來模擬理想智能體的那種 LessWrong 式概念,基本上也是經濟學所使用的概念,而非古典哲學或其他同名事物。
數學化的指向
U: outcomes → R
「結果」(outcome)是指宇宙隨時間演變的一種方式,例如「大霹靂發生了,(...) 出現了各種有意識的生命,然後他們互相合作並創造了美好的事物」,或是宇宙可能存在的任何其他時間線。這個集合非常非常龐大。效用函數是一個從可能結果集合映射到實數的函數,而一個理想的後果主義功利主義智能體擁有一個效用函數^([1]),使其行為可以被建模為最大化該函數。
有些人會賦予功利主義除了這些之外的其他特徵,但我並非如此。我只是在觀察世界可能經歷的所有時間線,並給予每一條時間線一個評分。
重複模擬
如果你在一台電腦上,在某個友好的環境中運行一個對我完美精確且穩健的模擬,這太棒了,我願意付錢讓這件事發生。然而,我經常與他人產生分歧的地方在於:我不會為了在第一台電腦旁邊放第二台電腦,運行完全相同的計算序列而付錢。請記住,根據假設,這並不會為模擬的持續運行增加額外的保障,它只是具有相同可靠性的相同事物的重複。
我的道德直覺告訴我:模擬已經在運行一次了,計算已經在發生,宇宙的任何部分都不會從這台邊際增加的第二台電腦中獲得關於我存在的任何新資訊。付錢做這件事對我來說,在直覺上就像是把現有電腦芯片上的每個晶體管都加倍,只是為了讓在其上進行的計算具有更多的道德權重一樣荒謬。
另一個角度在一篇經典的 planecrash 講座(有劇透)中有詳盡解釋:讓一個宇宙變得「兩倍真實」是沒有意義的;真實性是一個相對指標,而非絕對指標。你可以有一個量子實驗,2/3 的時間輸出一個結果,而那個結果在某種意義上比 1/3 的結果「真實兩倍」,但如果你讓每個結果都變得「兩倍真實」,你仍然會得到完全相同的結果。因此,我認為將某物變得「兩倍真實」並不是一個有意義的行動。
同樣的邏輯驅動著我的直覺:想要讓這個模擬變得兩倍真實並沒有意義。事實上,支付第一台模擬器的唯一合理理由是,在這個原本「我」不會存在的宇宙中,人們現在可以觀察到那個「我」在做什麼。那個「我」在某種意義上已經在背景中存在了,但現在增加了「被觀察」的效用。
如果你讓兩台電腦都將它們相同的計算廣播到太空中(再次假設零信號噪聲或損耗),那麼如果它們位於彼此的光錐之外,我會願意為兩者付錢。因為這意味著有不同的「我」在與不同的有趣事物接觸,預期中這可能會匯聚成更多事物知道「我」的存在,這很酷且有價值。
總結我們目前的觀點:
- 模擬人類及其世界的價值來自於「新獲得的觀察這些世界的能力」,而非最初將它們帶入存在。
- 重複模擬除非增加了該世界的「可觀察性」(例如通過位於實質上不同的位置),否則不具備任何邊際價值。
略有不同的模擬
把電腦放回彼此旁邊,並將其中一個模擬從「我」微調為「我*」。不足以讓我變成一個完全不同的人,但足以改變一些微小的個人偏好,比如反轉我對藍色和黃色襯衫的偏好順序。現在,我會為這個邊際模擬支付正數金額的錢。而且我傾向於認為,在保持某些我關心的特質(如被模擬者是人類形態且總體上對現狀滿意)的前提下,你對模擬的擾動越大,我支付的意願就越高。
「你對模擬的擾動越大,我支付的意願就越高」這部分是怎麼回事?為什麼一個生命^([2])的價值會隨著它與你已擁有的生命差異越大而增加?
我傾向於將我對周遭生命的價值感概念化為「正在進行的酷炫計算量」:人類大腦執行著如此多樣化且美妙的計算,個體之間存在著巨大的性格特徵和區別。然而,我已經確定,我對於「相同的人或世界」賦予價值的條件相當有限——排除掉緊挨著的重複模擬,但包括地球上雖然非常相似但可被分別觀察的真實人類。
當我想像一個每個人都完全相同的世界時,我覺得我們錯失了人類經驗的巨大可能空間,而只填充了其中的一小部分:
(非按比例)
回到在電腦上模擬略有不同版本的「我」,我覺得它們覆蓋了空間中具有意義的不同部分,但仍有部分重疊:
(非按比例)
效用隨人口的變化
我們現在有足夠的碎片來描繪一幅圖景:我對不同數量的人類(或類似事物)賦予多少價值。當我思考我在人類或任何至少具有微小價值的動物身上看重什麼時,有幾個因素至關重要:
越多越好
假設你能保持良好的生活條件,在一個給定的世界中,擁有更多的人類似乎比擁有較少的人類更好。他們覆蓋了更多有價值計算的空間。
在某些領域,越多呈超線性增長
「某些領域」指的是像「人類數量少於一百京(quintillion)^([3])」之類的情況。有些事情只有當一個世界的人類達到一定數量時才會發生,而這些事情具有額外的價值:對話需要兩個人,某些項目需要數十到數千人,建立中等先進的文明需要數十億人,擁有像我們今天這樣豐富多樣的文化也是如此。我不知道一兆個人類能發生什麼,但很可能會有許多現在無法實現的酷炫事物。
但價值空間是有限的
對我來說,具有價值的人類形態計算是有限的。雖然我很有信心我們現在還遠未達到極限,但我不敢保證當人口達到百京或更多時,我還會持有同樣的看法。在某個點上,空間會被填滿,每個邊際增加的人都不會為組合增加特別新穎的計算:
我想強調,這是一個非常非常大的人類形態價值空間,我不認為我們會撞上這個問題。
那麼其他動物呢?
考慮除了人類之外的另外兩種動物:蝦,以及像這裡描述的那種擁有「銀河大腦」的後人類。
在這一點上我持有相當世界主義(cosmopolitan)的觀點:蝦的計算並不等同於人類的計算,但我同樣關心這些計算,儘管每個生物的道德權重低得多,因為它們的大腦小得多。蝦的認知中有些我關心的東西,因為宇宙中擁有更多不同的心智是很酷的。儘管大腦很小,但蝦與蝦之間可能仍存在某種有意義的個體差異。
另一方面,後人類擁有非常宏大的經驗,包含人類甚至無法夢見的事物,體驗著人類無法生存的世界,總體上擁有更具價值的經驗。
對於這三類生物,我的價值觀呈現出幾種現象:
(非按比例,因為我根本不知道比例是多少,而且那樣可能反而不具說明性)
- 每種物種的價值空間將截然不同,因此水平漸近線也不同,按照我的設定:後人類 > 人類 > 蝦。
- 效用相對於每個物種的增加速率不同:這很合理,因為一個人類個體的價值高於一個蝦個體。
- 蝦的價值空間在個體數量較少時就會被填滿大部分,而人類的價值空間雖然更大,但需要更多個體。
這對古典有效利他主義(EA)意味著什麼?
古典 EA 哲學採取「單位影響力乘以受影響事物數量」的方法,這在處理特定的慈善目標(如挽救最多的人類生命)時效果很好,因為在我的價值觀下,人類生命的價值基本上處於線性階段。
但這對於蝦的生命之類的事物似乎不太適用。蝦的大腦很小,我想大部分都在處理肌肉輸出,如「往這邊游因為那邊有食物」和「吃食物」之類的東西,這些在絕大多數同類中都是高度共享的。我真的不認為那裡存在太多的變異,而且我不認為殺死一隻邊際上的蝦會顯著地掏空已經存在的「蝦計算價值空間」。
為了澄清,我仍然認為像蝦福利項目(Shrimp Welfare Project)這樣的人正在做積極的事情,他們在防止新型蝦類痛苦的產生,這看起來是好事。相對於我的價值觀,這並非一個高效的事業,但絕非毫無意義。
其他好奇點
我可能會在未來的文章中探討以下主題,並樂於在評論區討論:
- 效用函數是有界的
- 我是一個積極功利主義者(positive utilitarian)
- 意即,我認為相當多的結果都比「不存在」要好(這是「積極功利主義」一詞更核心的含義)。
- 意即,我喜歡相當多的事物,這感覺與為什麼前述含義成立有關。
我會在寫完這些文章後補上連結。
相關文章