
為何 Eliezer 會發表尖酸刻薄的公開評論?
我質疑 Eliezer Yudkowsky 那些生硬且具攻擊性的公開言論究竟是種刻意策略,還是對 AI 安全目標產生了負面影響,特別是在 MIRI 轉向以溝通為重心的當下。我正尋求一個理性的模型,來解釋這些言論儘管可能疏遠受眾,卻如何能產生正向的預期價值。
我不想引起任何爭議,但這件事困擾我一段時間了,而且由於 MIRI 正在進行募款,且重點轉向溝通而非研究,這與現在的決策變得息息相關。
我熱愛 Eliezer 的文字——那種洞察力、機智與顛覆性。然而,多年來,我看到許多出自他口、令我感到反感的言論。其中一些言論,我後來認為可能總體而言是正向的(net positive),只是我剛好屬於那些對其不買帳的小眾群體(例如,我覺得《尊嚴地死去》(Dying with Dignity)令人沮喪,但我看到足夠多的評論表示這對人們有所幫助,因此我改變了想法,認為它總體上是正向的)。
然而,其他一些言論對我來說真的很難合理化。我最近在 EA 論壇上看到一則評論,大意是說那些在 ChatGPT 出現後才縮短時間線的 EA 成員,其智力水平與室內盆栽無異。我無法建立任何一種社交動態模型,能解釋公開發表這種言論在預期價值(EV)上是正向的。
當我看到這些公開的嘲諷或自誇時,我會產生認知失調,因為在我心目中,Eliezer 是一個聰明、理性,且致力於利用其公開溝通來增加 AI 發展順利機率的人。我確信他以前一定考慮過這種批評,且我預期他在考慮後會得出一個理性的策略。然而,我發現當我推薦《如果有人造出它》(If Anyone Builds It)時,人們對 Eliezer 的社交評價影響了他們閱讀或考慮該文的意願。
我在 LessWrong(LW)上搜尋過,如果這件事以前被討論過,那它也淹沒在其他提及 Eliezer 的內容中了。我的問題是:
- 有人知道這背後是否有某種策略,或者有什麼模型能解釋為什麼這些生硬無理的言論對 AI 安全實際上是正向預期價值(+EV)?
- MIRI 在其溝通策略中是否考慮過情感影響?
換種說法,是否有充分理由相信:
- Eliezer 的公開溝通中,沒有任何部分對 AI 安全是負向預期價值(-EV)?
- 對 MIRI 的資金支持,比起以往看到的 Eliezer 個人表現,更有可能產生持續具備正向預期價值(+EV)的溝通?
註:我刻意不在此引用太多例子。我知道「生硬無理」是主觀的,且確信許多人不會有相同的反應。這一切並非旨在貶低 Eliezer,我對他深懷敬意。
相關文章