論停止人工智慧發展的政治可行性
我認為一旦社會開始認真看待人工智慧帶來的風險,停止人工智慧發展將比複雜的監管政策更具政治可行性,因為人們會出於對失業、大規模監控以及人類主導地位喪失的恐懼,轉而支持簡單且直觀的停止方案。
人們在思考 AI 生存風險(x-risk)時,似乎常陷入一種思考模式,即即便他們認為風險是真實的,卻仍表現得好像風險並非真實、重大且迫在眉睫。當以這種方式思考時,就無法想像人們在面對 AI 所帶來的恐怖現狀時會產生的自然反應。
這種思維可能會讓人認為,像銷毀先進 AI 晶片這樣的政策「太過極端」,儘管為了避免(例如)未來 10 年內 10% 的人類滅絕機率,這顯然是值得的。這可能讓人傾向於監管 AI,儘管停止 AI 比監管 AI 更容易。這也可能讓人傾向於採用在競爭力上大幅妥協的更安全 AI 開發方法,因為擔心社會會要求獲得他們無法擁有的 AI 替代品。
但事實上,我認為在「社會尚未感到足夠不安以採取實質行動治理 AI」與「社會感到極度不安以至於銷毀先進 AI 晶片被視為溫和手段」之間,可能只有一個非常狹窄的窗口。
有幾個原因讓我認為,一旦人們開始認真對待這個問題,他們很可能會傾向於停止 AI 而非其他政策。
對 AI 其他風險的擔憂
關於 AI 的討論通常被框架為烏托邦或反烏托邦;例如參見「AI 紀錄片:或者我如何成為一名末日樂觀主義者」。許多最擔心失控 AI 導致人類滅絕的人認為,除非 AI 殺死我們,否則 AI 將會非常美好。
但我認為對大多數人來說,「AI 將變得超級強大」本身就足以令人擔憂。「AI 將奪走所有人的工作,但別擔心,AI 公司掌控著 AI」這句話對大多數人來說聽起來並不令人安心。我認為很明顯,社會尚未完全準備好迎接 AI 可能帶來的巨大變革。我並不是說災難是必然的,只是說製造一個全能的人類替代品,是我們需要更多時間來準備的事情。我認為許多人會直覺地感受到這一點。我們可以做很多事情來嘗試準備——這也是其他政策的重點——但我認為更多零碎或補丁式的做法會讓我們難以跟上腳步。
我認為某些提案的另一個致命傷可能是**對大規模監控和權力集中的擔憂。**如果 AI 極其強大,那麼許多人會拒絕那些依賴於賦予政府或其他機構對 AI 掌控權的提案。
KISS 原則:保持簡單,笨蛋(Keep it Simple, Stupid)
我認為「停止 AI」是一個極其簡單且直觀的想法,人們可以理解並信任。其他計劃似乎很難在細節上做到完美,而且其中許多計劃都極度依賴細節。一旦出錯,就可能導致危險的 AI 鑽空子並引發災難,或者導致中央權力過大。
我認為人們會害怕 AI 的巨大力量,並且很難信任任何治理這種力量的系統。需要專家知識才能理解的技術官僚解決方案,將特別難以被社會接受。
對人類保持重要性的偏好
我認為很多人單純不喜歡人類變得過時的想法。這種世界的構想會讓他們感到不安和悲傷。這與他們所有的抱負、對未來的願景,以及他們為自己、親人、社群和國家所期望的生活格格不入。
這當然可能隨著時間而改變,但我認為在短期內,很多人單純不想放棄人類作為最智慧物種及唯一重要物種的特權地位。如果沒有顯著的放緩,我認為很難找到一種將 AI 整合到社會中且不威脅到這一切的方法,因此具有這種偏好的人會覺得這整件 AI 事情太過火、太快了。
感謝閱讀 The Real AI!免費訂閱以接收新文章並支持我的工作。
相關文章
其他收藏 · 0