利用人工智慧強化民主的藍圖

利用人工智慧強化民主的藍圖

MIT Technology Review·

每隔幾個世紀,資訊流動方式的變革就會重塑社會治理模式。我們正處於另一個轉折點,人工智慧正成為我們形成信念與參與民主治理的主要介面,這既可能加劇體制的脆弱,也可能成為解決政治極化與公民參與不足等長期問題的契機。

每隔幾個世紀,資訊流動方式的變革都會重塑社會的治理模式。印刷機普及了方言讀寫能力,助長了宗教改革,並最終促成了代議制政府。電報使得管理像美國這樣廣大疆域的國家成為可能,加速了現代官僚國家的成長。廣播媒體創造了共同的全國受眾,進而推動了群眾民主。

我們現在正處於另一場此類轉變的早期階段。人工智慧(AI)正以超出許多人預期的速度,成為我們形成信念和參與民主自治的主要介面。如果不加約束,這種轉變可能會進一步削弱美國本已脆弱的體制。但它也可能助於解決長期存在的問題,如公民參與度低迷和極化加劇。接下來會發生什麼,取決於那些無論我們是否察覺、目前正在制定的設計選擇。

首先從所謂的「認識層」(epistemic layer)開始——即我們如何認知事物。人們越來越依賴 AI 來了解什麼是真實的、正在發生什麼,以及該信任誰。搜尋行為已經在很大程度上由 AI 媒介化。下一代 AI 助手將會綜合資訊、建構框架,並以權威的姿態呈現。對於越來越多的人來說,詢問 AI 將成為形成對候選人、政策或公眾人物觀點的預設方式。因此,誰控制了這些模型的言論,誰就對人們的信仰擁有日益增長的影響力。

技術一直以來都在塑造公民與資訊互動的方式。但一個新問題很快就會以「個人 AI 代理人」的形式出現,它們不僅能改變人們接收資訊的方式,還能改變他們的行動方式。這些系統將代表使用者進行研究、起草通訊、強調訴求並進行遊說。它們將影響各項決定,例如在公投中如何投票、哪些組織值得支持,或如何回覆政府通知。從實質意義上講,它們將開始調解個人與治理他們的機構之間的關係。

我們已經在社群媒體上看到,當演算法優先考慮參與度而非理解力時會發生什麼。平台不需要有明確的政治議程,就能產生極化和激進化。一個了解你的偏好和焦慮、且旨在讓你保持參與的代理人,同樣具有這些風險。而在這種情況下,風險可能更難察覺,因為代理人是以你的「倡導者」身份出現的。它為你發言、代表你行動,並可能正是透過這種親密關係贏得信任。

現在將視角放大到集體層面。AI 代理人和人類可能很快就會在同一個論壇中參與討論,屆時可能無法區分彼此。即使每個獨立的 AI 代理人都設計良好且符合其使用者的利益,數百萬個代理人的互動仍可能產生任何個人都不想要或未曾選擇的結果。例如,研究顯示,表現出無個人偏見的代理人,在大規模運作時仍可能產生集體偏見。撇開代理人之間如何互動不談,還有它們為使用者做了什麼。一個每個人都擁有調適其既有觀點的個人化代理人的公共領域,從總體上看,根本不是公共領域。它是一堆私人世界的集合,每個世界內部邏輯自洽,但集體而言,對於民主所需的共同商議卻是格格不入的。

綜合來看,這三種轉變——在我們如何認知、如何行動以及如何參與集體治理方面的轉變——等同於公民身份本質的根本改變。在不久的將來,人們將透過 AI 濾鏡形成政治觀點,透過 AI 代理人行使公民代理權,並參與那些本身由數百萬此類代理人互動所塑造的機構和公眾討論。

今天的民主尚未對此做好準備。我們的制度是為一個權力行使清晰可見、資訊傳播速度慢到足以被質疑、且現實感(即便不完美)較為共享的世界而設計的。這一切在生成式 AI 出現之前就已經開始瓦解。然而,這不一定是一個衰落的故事。要避免那種結局,我們需要為了更好的目標進行設計。

在資訊層面上,AI 公司必須加強現有努力,確保模型的輸出是真實的。他們還應該探索一些有希望的早期發現,即 AI 模型可以幫助減少極化。最近一項針對 X 平台上 AI 生成事實查核的實地評估發現,具有各種政治觀點的人都認為 AI 撰寫的註解比人類撰寫的更有幫助。該論文尚未經過同行評審,但這是一個具有革命性潛力的發現:AI 輔助的事實查核或許能夠實現大多數人工努力都難以達到的跨黨派公信力。對模型如何做出這些主張以及在過程中如何優先排序來源有更深入的了解和透明度,可能有助於進一步建立公眾信任。

在代理層面上,我們需要方法來評估 AI 代理人是否忠實地代表其使用者。代理人絕不能有自己的議程,也不能誤導使用者的觀點——在使用者可能尚未明確表達任何偏好的領域,這是一個技術上極具挑戰的要求。但忠實代表也不能成為「動機性推理」(motivated reasoning)的幫兇。一個拒絕呈現令人不安的資訊、保護使用者使其從不質疑先前信念,或無法適應心意轉變的代理人,並不是在為該人的最佳利益行動。

最後,在制度層面上,政策制定者應趕快利用 AI 的潛力,使治理更具回應性和合法性。一些州和地方已經在使用 AI 媒介平台進行大規模的民主商議,這建立在研究基礎之上,該研究顯示 AI 調解者可以幫助公民找到共識。隨著代理人越來越普遍地參與公眾意見徵詢過程——且已有證據表明機器人正在扭曲這些過程——人類及其代理人代表的身分驗證必須從一開始就內建其中。

我們需要的是新一代的民主基礎設施,包括技術和制度上的,為現實世界而建。在如此重大的領域中,如果不能為了民主結果而設計,就意味著在為其他東西設計。而缺乏問責的權力歷史,讓我們對那種「其他東西」通常會演變成什麼樣子,無法抱持太多樂觀。

Andrew Sorota 與 Josh Hendler 在艾瑞克·施密特辦公室(Office of Eric Schmidt)領導 AI 與民主相關工作。

MIT Technology Review

相關文章

  1. AI機器人蜂群威脅破壞民主

    Hacker News · 3 個月前

  2. 我們是否將人工智慧的辯論聚焦在錯誤的問題上?

    Hacker News · 4 個月前

  3. AI「蜂群」恐扭曲民主

    Hacker News · 3 個月前

  4. 你無法掌控奧佛頓之窗:政治並非室內設計

    Lesswrong · 20 天前

  5. AI時代下的機構崩潰四階段

    Hacker News · 4 個月前