
我們是否將人工智慧的辯論聚焦在錯誤的問題上?
這篇觀點文章認為,美國目前關於人工智慧的辯論過度關注技術能力和競爭,卻忽略了其對治理、勞動、公共敘事和公民信任的深遠影響,且往往缺乏民主問責機制。
大多數美國關於人工智慧的辯論都聚焦於速度、規模和競爭。我認為更緊迫的問題是治理、勞動力取代、監控,以及演算法系統如何已經在重塑公共敘事和公民基礎設施,而且往往缺乏民主問責。
老實說,我不確定以下框架是否百分之百穩固,因為它可能會在那些比我更深入思考過這個問題的人的審查下崩潰,但我一直回到相同的直覺和結論。
美國大多數關於人工智慧的辯論都過度關注資金雄厚和長遠佈局——速度、規模、投資者和競爭:誰擁有最好的模型、最大的晶片、最令人印象深刻的基準測試,或最強大的地緣政治地位。這種框架忽略了重點。人工智慧最重大的影響不是模型能力,而是演算法系統如何已經在重塑治理、勞動力、公共敘事和公民信任,而且往往缺乏民主問責。
你是否曾經參加過那種會議,在會中性能指標被極度優化,而關於下游社會影響的問題卻被悄悄地,如果不是明確地,推遲了?優化與責任的差距,這正是我在當今人工智慧辯論中所看到的。這是一個經典的框架問題,在科技環境中工作的開發者或設計師在實踐中會面臨,而不僅僅是理論上的。而且這通常發生在部署之後,在對失敗的問責有清晰認識之前。
在關於生成式人工智慧、不平等、創造力、氣候和工作未來(通常在沒有窗戶的會議室裡,使用相同的簡報)的各種討論會中,一種模式不斷重複。大型科技公司透過與政治和軍事利益結盟而快速前進,而社區則在努力適應,同時面臨失去社會凝聚力和經濟安全,甚至民主自主權的風險。結果越來越像我所認為的一種技術封建主義,平台鞏固權力、提取價值並調解現實,而公眾則承受風險和顛覆。這種動態在 Cory Doctorow 對平台衰敗和圈地的分析 中得到了很好的描述。
風險並非假設。國家標準與技術研究院 (NIST) 的大規模評估已顯示,臉部辨識系統對 有色人種的誤判率 顯著更高。公民權利 研究 進一步記錄了當這些系統被部署在現實世界的警務和監控環境中時,這些錯誤如何疊加。
大規模部署時,此類系統能夠進行大規模識別和鎖定目標。同時,演算法決策越來越與警務、移民執法、軍事行動和福利系統交叉。每一層都加劇了錯誤、不透明(或缺乏透明度)和權力不對稱。
在衝突情境中,調查性報導描述了使用人工智慧輔助瞄準、機械化殺戮和基於大型雲端基礎設施合約建立的監控系統,說明了機器推論如何在軍事決策中被操作化,而缺乏公開透明或公眾監督。大型雲端供應商現在與軍事和安全機構(國內外)簽訂了長期合約,用於數據儲存、電腦視覺和自動化分析,這引發了關於人工智慧基礎設施一旦部署在衝突或執法環境中將如何被治理的問題。一些報導進一步描述了生成目標列表或追蹤個人移動模式的人工智慧系統,但人類審查受到限制,突顯了當這些系統整合到實際決策流程中時,錯誤傳播和問責的風險。
我應該在這裡停下來,強調一下每個人都熟悉的些許不安。在實踐中,決策是在時間壓力下做出的,然後再事後合理化。這時,問責制在混亂中滑落,因為人們知道沒有人有意造成傷害,而且獎勵機制悄悄地獎勵速度而非謹慎。生活很少會以整潔的階段部署。治理也是如此。
許多公共論述將人工智慧描繪成一場競賽,尤其是在美國和中國之間。比較研究強調了這場競爭的激烈程度(在此)。
但競爭的說辭掩蓋了更深層次的失敗。儘管擁有非凡的創新能力,美國並未將技術領導力轉化為廣泛的社會利益。隨著自動化加速,工作取代的威脅迫在眉睫,麻省理工學院 工作未來工作組 的研究警告說,如果治理跟不上步伐,人工智慧可能會加劇經濟差距。
中國將人工智慧系統性地整合到監控、教育、醫療保健和社會控制中的做法,是應當受到批評的。然而,至少它對其治理邏輯是明確的。相比之下,美國越來越將類似的能力包裝在便利、個人化、市場選擇或任何符合少數科技領導者目標的語言中。自由的風險正在變成一個空洞的象徵,而監控則透過合約、平台和採購管道悄悄擴張。
這就是為什麼人工智慧的辯論必須從能力轉向問責。核心問題是公民問題,而非技術問題。誰來治理影響公共生活的演算法系統?誰來審計它們?當人工智慧系統影響選舉、勞動力市場、公共論述或軍事決策時,誰受益?哪些政治或經濟利益資助和引導這些系統,以及預設編碼了誰的價值觀?
在聯邦行動滯後之處,城市和州可以發揮領導作用。對演算法系統進行公共利益審計、透明的數據清單,以及對媒體和政治內容實施可執行的來源標準,這些都不是激進的想法。紐約市已經開始試驗演算法問責計畫。像內容來源和真實性聯盟 (C2PA) 這樣的技術標準,為追蹤和驗證數位媒體提供了實際機制。這些方法與美國近期關於人工智慧的 行政命令 中概述的絕大多數自願性指導方針形成對比。
創新應該加強民主能力,而不是侵蝕它。詢問人工智慧是否會「顛覆」社會是錯誤的問題。更好的問題是,它會加強還是削弱讓社會能夠自我治理的制度。這個答案不會來自投資者的簡報或名人科技專家。它取決於激勵機制、監管,以及公共機構是否保留足夠的權威來設定界限。
一個無法信任自身記憶(其記錄、圖像、敘事和共享事實)的社會,無法長久地自我治理。日益塑造這些記憶的人工智慧系統,透過使問責制變得可選,來破壞基礎性的問責。人工智慧領導力的未來,將不僅僅由更快的晶片或更大的模型決定,而是取決於技術權力是否與公民責任相符。
如果美國想成為領導者,它必須停止將治理視為瓶頸,而是將其視為基礎設施。讓系統更聰明,正迅速變成一個令人討厭的頭痛問題:多聰明才算聰明,又是為了什麼?人工智慧的真正考驗將是,它是否能讓社會變得足夠聰明,以變得更公正、更有韌性,並有能力自我引導。
相關文章