一個高誠信/認識論的政治集團?
我正在探索如何建立一個既強大又具備高誠信與良好認識論的政治聯盟,以便在不向傳統政治的智識妥協或「令人不安」的結盟低頭的情況下,實現如人工智慧安全等目標。
我有許多目標,若能擁有強大的政治集團(political bloc)支持,達成起來會容易得多。這裡可能也有許多人抱持同樣的目標。(目標包括「確保不會開發出強大且危險的 AI」、「確保美國與世界的治理大致良好且不衰退」、「擁有能與上述治理接軌的良好公民論述」。)
我認為,如果能有一個強大、高誠信、且具備良好認識論(epistemics)的政治集團努力促成這些事情,那會是很棒的事。
不幸的是,採取天真的做法會摧毀理性主義知識圈(rationalist intellectual scene)中美好的特質。這篇文章提出了一些想法,探討如何建立一個具備良好認識論與誠信的政治集團。
最近,我捐款給了 Alex Bores 的競選活動。結果證明,這募集到了一筆相當可觀且令人驚訝的金額。
我捐款給 Alex Bores 時相當有信心。幾年前,我也曾捐款給 Carrick Flynn,但當時感覺有點「髒髒的」(skeezy)。這不一定是因為 Carrick Flynn 本身有什麼問題,而是因為將「捐款給 Carrick Flynn」推送到我面前的過程是一種自我指涉的邏輯:「嗯,他是有效利他主義者(EA),所以他當選是好事。」(或許有人掌握比這更多的資訊,但我沒聽說多少)。
最終,我雖然大致同意,但我不會公開為這個選擇辯護。那是在 FTX 時代,資金充裕,我們開始吸引到一些投機者(例如,我聽過明確的評論說:「天啊,你只要說你關心某某議題,就能拿到免費的錢。」)持續捐款給那些「因為他們是 EA」或「因為他們口頭說出『AI 安全』」的人,是不可持續的。
唉,但我確實有想要實現的重要政治目標。政治目標需要讓許多人步調一致地行動。而理性主義者討厭步調一致。這是有充分理由的。當時,我的解決方案是「捐款給 Carrick Flynn,但心裡覺得髒髒的」。
另一種選擇是將這件事留給「EA 社群」,而不是試圖動用「理性主義者」。唉,我只是……不太信任 EA 社群能做好這件事。或者更確切地說,他們要成功,就必須傾向於理性主義者的特質,而這又會重新引發同樣的排斥反應和猶豫不決。我的政治目標是細緻的。我不想走上環保主義那種禁止核能、結果反而讓事情變得更糟的老路。
AI 安全案例
AI 安全並非你唯一會希望具備良好認識論的強大政治集團去支持的事。也許人們更有野心,想做一些更開放性的事情。但是,這是我將其列入前五大待辦事項的動力案例,且剖析動力案例是有用的。
我想這裡的許多人都同意,我們需要停止開發不安全、且具有壓倒性力量的超級智能。(我們對於達成此目標的正確步驟可能存在很大分歧)。
以下是一些失敗的方式:
- 你創造了一個莫洛克式(molochian)的道德迷宮來負責「監管 AI」,它甚至根本沒打算做正確的事,內部充斥著追求私利的官僚,發放與監管不安全、壓倒性超級智能毫無關係的人情。
- 你創造了一群高度受信任的技術官僚,但不幸的是,他們對於哪種訓練運行、算力控制或其他干預措施真正有效,判斷完全錯誤,因為這是一個複雜的問題。
- 你創造了一個在第一天運作大致正確的系統,但在 20 年後仍需做出「即時」選擇時,它已經僵化了。
- 你從未獲得對這件事的支持,因為你不知道如何妥協和建立聯盟。
- 你建立的聯盟達成了一些表面相似、但並未解決核心問題的目標。
這很艱難。該怎麼辦(Wat do)?
我認為「該怎麼辦」的答案是:弄清楚如何建立一個強大到足以擁有槓桿力,但仍建立在堅實的認識論信任基礎上的政治網絡。
如何做到?
嗯,唉,我也不知道。但對我來說,做得比「不玩這場遊戲」或「天真且短視地玩這場遊戲」更好,感覺是非常可以實現的。以下是一些相關的想法。
事情之所以艱難的一些原因
這很困難,原因有很多。以下是一些較容易闡述的原因:
互惠聲譽聯盟 (Mutual Reputation Alliances)
世界上的許多運作依賴於隱性聯盟,人們同意互相推薦對方為好人,並且不說對方的壞話。
脾氣古怪的理性主義者之所以會認為「政治在不犧牲智識誠信的情況下極難運作」(而其他人可能會覺得「我明白你的擔憂,但你似乎誇大了」),一個重要原因在於這是一種非常有害的現象。它會以一種如果你不主動追蹤就看不見的方式破壞認識論,而互惠聲譽聯盟不希望你追蹤它,因此需要主動努力才能使其變得可追蹤。
參見:Heads I Win, Tails?—Never Heard of Her; Or, Selective Reporting and the Tragedy of the Green Rationalists
人們普遍有獲得權力的動機
獲得權力有其正當(天真)的理由。你確實需要政治權力才能把事情辦成。但是,人們也會因為平凡、無聊、自私的原因而受到權力的吸引。在這一點上,你很容易在動機上欺騙自己,也很容易對未來當你深陷政治聯盟時的動機產生誤判。
許多獲得權力的方式都涉及互惠聲譽聯盟或其他妥協。
(Oliver Habryka 曾向我論證,存在獲得「有條件權力」(相對於「無條件權力」)的方式,涉及的妥協較少。本文主要討論獲得無條件權力,但區分這兩者似乎值得標註。)
私人資訊非常關鍵
雖然有一些公開資訊,但對於「這個廣泛的政治計畫能否長期運作」,將取決於諸如「某某人是否守信用?」、「如果政治局勢改變,或者他們看到權力機會,某某人還會繼續守信用嗎?」之類的事情。
這需要關於其性格的細微細節,你只能從與他們共事過多次的人那裡獲得,而這些人通常是互惠聲譽聯盟的一部分,如果你分享資訊,他們不希望自己的名字與之關聯,且只有在你分享方式不會明顯暴露是他們提供的情況下,才會把資訊給你。
有權勢的人可能具有報復性
除了「嵌入互惠聲譽聯盟」之外,如果你試圖分享關於其性格的負面資訊,有權勢的人可能會具有報復性。而且,既然他們有權勢,如果他們想傷害你,他們很可能做得到。
人們不分享有權勢者的負面資訊是出於恐懼,而不僅僅是忠誠。
(這方面的一個具體案例是「他們可以控告你誹謗,或者至少以此威脅」。)
政治廣義上是敵對性的
會有競爭對手不希望你支持的候選人當選,或不希望你支持的政策被實施。他們會主動阻撓你。他們可能會採取難以察覺、且剛好低於「不合理」門檻的卑劣手段,讓你難以指責。
這也意味著有時你會希望秘密地籌款或運作。
謊言與誤導具有傳染性
互惠聲譽聯盟代價高昂,因為它們會從聯盟內部向外輻射。在實踐中,政治家和理性主義者之間並沒有明確的界限。集結支持和尋找私人資訊的人(預設情況下,很可能)會散發出某種壓力,要求不要質疑既定敘事,並避免讓分享資訊的人感到後悔。
另見:Entangled Truths, Contagious Lies
政治是心靈殺手 / 困難模式
當我們只是試圖在網路的一角討論一些事情時,這已經夠難了。如果你試圖達成政治目標,這會變得更加重要。
參見:Politics is the Mind-Killer 以及 Politics is hard mode
高誠信的政治集團需要長期運作,而非僅此一次
如果你只是進行一次性的政治操作,這些問題大多沒那麼嚴重。你可能會樹立一些敵人,並冒著一點部落集體主義思維的風險,但隨後你又回去做別的事,後果是有限的。
但是,建立一個「良好認識論/誠信」政治集團的全部意義在於持續不斷地做事。如果成功,這將吸引敵人。它還會吸引……
投機詐取 (Grift)
人們會試圖操縱你給他們錢。其中一些情況可能是出於好意。無論如何,你都需要具備防禦能力。
密碼應該是難以偽造的
如果大家都知道有一個「高誠信/認識論政治集團」在防範社會病態者(sociopaths)和細微的腐敗,人們就會試圖說出那些聽起來像是在避免社會病態/細微腐敗的話。這包括候選人,以及運作集資活動以資助候選人的人。
「我相信 AI 安全」或「我關心認識論」是很容易偽造的密碼。
一個較難偽造的密碼範例是:「我已經就我的承諾發表了許多公開聲明,如果我背叛它們,會讓我看起來很糟。」
對於運作政治行動委員會(PAC)或其他組織的人來說,「這是我建立的激勵機制,旨在讓我自己或組織難以背叛其原則」則更好。(例如,OpenAI 的非營利治理結構確實讓該組織背叛其原則變得困難,且花費了數年時間)。
範例解決方案:政治捐款的私人及/或追溯性監督者
政治募款有時的一個困難點在於,早期通常需要以低調的方式進行,因為如果競爭對手知道你的計畫,他們就可以進行阻撓。但是,
我認為過程的一部分應該是,有一些人參與低調私密的政治...
相關文章