newsence

我的成本效益衡量單位

Lesswrong·12 天前

我提出了一套量化框架,使用每50億美元達成1%未來改善作為通用的成本效益衡量單位。這套系統讓我能透過初步估算,比較人工智慧安全、選舉安全及政治活動等不同領域的捐款機會。

我覺得我身邊的資助決策(grantmaking)只有部分被「魔球化」(moneyball-pilled),或者說在執行魔球理論時只有部分稱職。如果你能正確地為事物標上數值,其中便存在超額收益(alpha)。

五個月前,我想比較一堆不同類型的捐贈機會。我需要一個通用的成本效益單位,為此我需要一個「善」(goodness)的單位。想像一個價值量表,其中「多元宇宙的期望價值(EV)」是 100,而「在太陽現在就變成超新星的虛擬情況下,多元宇宙的 EV」是 0。我的預設善單位是 1% 未來增益(future-improvement),這意味著從 100 增加到 101。背景資訊:如果 P(AI 奪權) = 40%,且 AI 奪權意味著零價值,^([1]) 那麼將 P(AI 奪權) 降低一個百分點的價值,意味著將 P(無 AI 奪權) 從 60% 增加到 61%,這價值 1%/60% = 1.7% 未來增益。^([2]) 而奇蹟般地將 P(AI 奪權) 降至零價值 70% 未來增益(因為 100%/60% = 1.7)。我認為「每個人都奇蹟般地完美周到、謹慎、明智、仁慈、協調等」價值 +900%,但那並不穩定。至關重要的是,各種理想目標(desiderata)最終都可以折算成這個單位。

(我認為其他合理的善單位包括「1 個百分點(或基點、微點)的 AI 奪權風險降低」以及「51:49(或 50.01:49.99)的反對 AI 奪權更新」。有些干預措施的成果體現在奪權風險降低以外的目標上,但你可以推導出轉換率。)

我的預設成本效益單位是 每 50 億美元達成 1% 未來增益。^([3]) 如果一個捐贈機會是該單位的 1 倍,那就是每美元達成 (1/50億)% 的未來增益。如果是 50 倍,那就是每美元達成 (1/1億)% 的未來增益。這個單位是隨意的——你可以用不同的數字代替 50 億;我選擇 50 億只是因為它讓我認為許多不錯的機會落在 1-20 倍的區間內,而且我偏好這個大小的數字。

示範性粗略估算 (BOTECs)

以下是一些粗略估算(back-of-the-envelope calculations, BOTECs),展示如何使用我的成本效益單位來比較干預措施。這裡的部分數字代表我的真實信念,部分則是隨意的佔位符——在現實中,使用精確的數字至關重要,但目前我想說明概念,而不糾結於具體數字。

Open Philanthropy (OP) 的「最後一美元」專案。 2020 年左右,OP 認為大規模降低生存風險(x-risk)資助的成本效益弱下限是每拯救一個免於生物生存災難的世界需 200 兆美元。這(略優於^([4]))用 200 兆美元換取 100% 未來增益。相對於 1%/50億美元的單位,這就是 (100%/200兆)/(1%/50億) = 0.0025 倍。

Alex Bores。 如果 AI 安全擁護者 Alex Bores 贏得美國眾議院選舉價值 0.25% 未來增益,而邊際上的 100 萬美元能提升他 6% 的勝選率,那麼這在邊際上就是 (0.25%*6%/100萬)/(1%/50億) = 75 倍。

選舉安全。 如果 2028 年美國選舉是自由的(而非不自由的)價值 7% 未來增益(這是因果上的,不如證據上的價值高),且你可以花 3000 萬美元將 P(自由選舉) 提高 0.1%,那就是 (7%*0.1%/3000萬)/(1%/50億) = 1.2 倍。

AI 安全超級政治行動委員會 (Super PAC)。 假設從沒有 AI 安全超級 PAC一個 5000 萬美元的 AI 安全超級 PAC 價值「美國政府在 AI 安全上永遠表現出色」的 0.1%,而「美國政府在 AI 安全上永遠表現出色」價值 30 個百分點的奪權風險降低。在 P(AI 奪權) = 40% 時,每個百分點的奪權風險降低價值 1%/(1-40%) = 1.67% 未來增益。所以平均而言是 (0.1%*30%*1.67/5000萬)/(1%/50億) = 5 倍。

AI 安全非營利組織(以目前的資助者分佈計算)。假設 AI 安全非營利生態系統運作一年能降低 P(AI 奪權) 0.8 個百分點,並在沒有 AI 奪權的世界中將未來價值提高 0.6%,總計為 0.8%1.67 + 0.6% = 2% 未來增益。假設該生態系統每年消耗 10 億美元,且增加 1% 的資金能增加其 0.1% 的價值——小於 1% 是因為人才/專案品質存在邊際報酬遞減,且隨著 AI 安全的「低垂果實」被採摘,報酬也會遞減(且資助者不會獲得全部功勞,或者人們存在機會成本——這在整體上很大,但我認為在邊際上*增加資金時較小)。這在邊際上就是 (2%*0.1%/1000萬)/(1%/50億) = 1 倍。

此外,Linch 的舊標準。 引用。^([5]) 如果生存風險是 45%,降低 1 個百分點的生存風險是 1%/(1-45%) = 1.82% 未來增益,那麼花 1 億或 3 億美元降低 0.01 個百分點的生存風險就是 (0.01%*1.82/1億 或 3億)/(1%/50億) = 0.9 倍或 0.3 倍。但那是 2021 年底的 EA 美元;如果那些錢的價值是 2026-01-01 EA 美元的 4 倍(這實際上取決於領域或捐贈者/資助者的精明程度),Linch 的標準在 2026-01-01 美元中更像是 0.2 倍或 0.07 倍。

其他備註

好的數字至關重要。 當你使用 BOTEC 來確定成本效益時,顯然你的數字至關重要。我真實的 BOTEC 看起來就像這些,但每個參數背後都有深思熟慮。

大多數人不擅長為參數設定數值,以至於這樣做對他們排定優先順序沒有幫助;他們的結論更多是由錯誤驅動,而非機會之間的真實差異。我認為自己在許多情況下很擅長這一點,但我不會在這裡證明,你也不必信任我。這與對數學和數字有良好的直覺有關,或許還涉及預測和交易相關的技能。此外,擁有大量的領域背景知識,並在一段時間內為所有事物標上數值,與他人辯論並解決觀點中的重大矛盾,這點非常重要。

在這些 BOTEC 中,最令人困惑的部分通常是「未來增益」的數值。我對各種中間目標的好處有一套預存的看法(cached takes),所以我只需思考干預措施如何影響這些中間目標,然後使用我預存的看法將這些目標轉換為未來增益。遺憾的是,我無法公開這些內容。

可信區間 (Credible intervals)。 根據 BOTEC 顯示一個干預措施優於另一個,你應該更新多少認知?這取決於你的先驗證據以及你對數字(和建模)的信心。因此,在某些情況下你應該使用可信區間(常被錯誤地稱為「信心區間」)。

  • 再次強調,關鍵在於你的參數是否有好的數值。使用可信區間不能替代 (1) 對參數有極佳的估計和 (2) 理解數學。
  • 在許多情況下,人們的可信區間太窄了。另一方面,在 AI 安全、長期未來和資助決策的背景下,說自己非常不確定並給出極寬的可信區間是很流行的做法。可信區間必須在某種程度上基於現實才有幫助,而人們口中常說的可信區間往往讓人覺得與現實無關。
  • 數學腳註。^([6])

盡可能進行更窄的比較。 如果兩個干預措施透過同一個目標產生價值,你可以比較它們對該目標的影響,而不是評估它們的絕對成本效益。或者只要你在兩種情況下對該目標的價值使用相同的數字,你對其價值的不確定性就會抵消。儘管如此,你通常希望做的不僅僅是比較特定的干預措施;絕對評估是非常棒的。

邊際。 平均成本效益通常是邊際成本效益的 1.5 到 50 倍。在使用 BOTEC 計算平均成本效益來評估邊際成本效益,或將一件事的平均成本效益與另一件事的邊際成本效益進行比較時,應保持謹慎。確保你知道你的數字代表什麼。我沒有關於根據平均值估計邊際成本效益的良好啟發式方法;你只能根據具體情況具體思考。

金錢並非鐵板一塊。 大額捐贈者的非營利資金比小額捐贈者的政治資金「便宜」得多。對於不同類型的資金,你會有不同的標準。


感謝 Eric Neyman 和 Mo Putera 提供的建議。

這篇文章是我受優先順序研究和捐贈諮詢工作啟發的系列文章的一部分。

  • ^(^)目前尚不清楚 AI 奪權是否比超新星更好或更糟。迴紋針製造機(paperclipper)比什麼都沒有好,因為 AI 可以與具有良好價值的智能體進行非因果交易(acausally trade),但也很糟,因為這種 AI 似乎比那些否則會佔據大部分光錐的外星人更糟。我是從 Ryan Greenblatt 那裡聽到這個觀點的。

在定義和使用我的「1% 未來增益」單位時,我做了一些非顯而易見的假設:

  • 長期主義;規模敏感的價值論
  • 太陽變成超新星會大幅降低 EV;比生存災難更糟糕的結果不太可能發生
  • AI 奪權的價值與超新星非常相似

如果你不同意這些假設,你可能需要一個略有不同的單位。

  • ^(^)P(AI 奪權) 越大,降低 P(AI 奪權) 一個百分點相對於增加無 AI 奪權世界中價值的「更美好未來」干預措施就越好。

  • ^(^)或許該單位應該掛鉤到例如 2026-01-01 美元;隨著時間推移,美元的價值會降低。(嗯,在許多情況下等待捐贈是好的,但你至少應該偏好更早獲得資金,因為你可以獲得投資回報。)

  • ^(^)如果生物生存風險是 2%,那麼將 1 個百分點從「生物生存風險」轉移到「無生物生存風險(但可能有 AI 奪權)」價值 1%/98% = 1.02% 未來增益。

  • ^(^)> 以下是我截至 2021/11/27 的非常脆弱的想法:

就我個人而言,我感到相當樂觀且自在地認為,我們應該資助那些我們有韌性估計能以約 1 億美元成本降低約 0.01% 生存風險的干預措施。

我認為對於性質相似且具時效性的資助,我也會傾向於樂觀看待成本約 3 億美元/0.01% 生存風險的資助,但如果沒有時效性,我希望先看到更多的估計和研究。

  • ^(^)假設你的 BOTEC 是參數的乘積。假設參數呈對數正態分佈,* 我們可以將參數的 50% 可信區間表示為「中位數 ⋇ q」,其中 q 是某個數值。(⋇ 就像 ±,但用於乘法/除法。例如,⋇3 表示中位數的 1/3 到 3 倍。沒有不確定性將是 ⋇1;很大的不確定性可能是 ⋇30。)進一步假設參數是獨立的,我們可以計算出具有可信區間 ⋇q 和 ⋇r 的分佈乘積,其可信區間為 ⋇e^(√(ln^2 q + ln^2 r)),參數越多,只需增加更多加數即可。或者 ⋇q 分佈與自身相乘 n 次的乘積可信區間為 ⋇q^√n。(這適用於 50% 可信區間或 80% 等,因為對於對數正態分佈,這些只是彼此之間以及對數空間標準差的標量倍數。)

例如,如果一個成本效益估計是 4 個獨立參數的乘積,每個參數的可信區間均為 ⋇1.3,則整體可信區間為 ⋇1.3^√4 = ⋇1.7。那麼兩個此類干預措施之間比率的 50% 可信區間為 ⋇(1.7^√2) = ⋇2.1。因此,給定這些數字,如果一個干預措施看起來比另一個好 2.1 倍,那麼它確實更好的機率有 75%——除了我們處於 ⋇2.1 50% 可信區間錯誤那一側的所有情況。

*那些追問「究竟是什麼的機率分佈」的學究可以考慮:如果我們對一個參數思考很長時間(但還沒長到變成先知),我們會賦予該參數的 EV 的機率分佈。請注意,這意味著該分佈的不確定性小於你對「先知會說什麼」的不確定性。

參與討論

https://lesswrong.com/posts/eLcjjXcmFE32jf5FJ/my-cost-effectiveness-unit