newsence
一份若有人願意傾聽的 AI 發展路線圖

一份若有人願意傾聽的 AI 發展路線圖

Techcrunch·28 天前

親人類宣言在五角大廈與 Anthropic 上週發生對峙前便已定稿,但這兩起事件的碰撞對所有參與者而言都具有深刻意義。

雖然華盛頓與 Anthropic 的決裂暴露了治理人工智慧的連貫規則完全缺失,但一個由思想家組成的跨黨派聯盟已經建立了一套政府至今仍未能產出的東西:一個關於負責任的 AI 發展究竟應該是什麼樣子的框架。

《親人類宣言》(Pro-Human Declaration)在上週五角大廈與 Anthropic 的僵局之前就已定稿,但這兩起事件的碰撞並未被任何參與者忽視。

「在過去短短四個月內,美國發生了一些非常引人注目的事情,」協助組織這項行動的麻省理工學院物理學家兼 AI 研究員 Max Tegmark 在與本編輯交談時表示。「民調突然顯示,95% 的美國人反對一場不受監管的超級智慧競賽。」

這份新發布的文件由數百名專家、前官員和公眾人物簽署,開篇便直言不諱地觀察到人類正處於十字路口。一條路被宣言稱為「取代競賽」,導致人類首先作為勞動者被取代,接著是作為決策者被取代,權力則向不負責任的機構及其機器聚集。另一條路則通向能大規模擴展人類潛能的 AI。

後者的情景取決於五大關鍵支柱:保持人類主導地位、避免權力集中、保護人類體驗、維護個人自由,以及讓 AI 公司承擔法律責任。在其較為強硬的條款中,包括在科學界達成安全共識並獲得真正的民主認可之前,明令禁止開發超級智慧;強制在強大系統上設置關機開關;並禁止具備自我複製、自主自我改進或抵抗關機能力的架構。

該宣言的發布恰逢一週,這讓其緊迫性變得更容易理解。國防部長 Pete Hegseth 在 Anthropic 拒絕授予五角大廈無限使用其技術的權限後,將該公司(其 AI 已在機密軍事平台上運行)列為「供應鏈風險」——這一標籤通常保留給與中國有聯繫的公司。幾小時後,OpenAI 與國防部達成了自己的協議,法律專家表示,這項協議將難以以任何有意義的方式執行。這一切都揭示了國會對 AI 的無所作為代價有多麼高昂。

正如美國創新基金會(Foundation for American Innovation)高級研究員 Dean Ball 今天對《紐約時報》所說:「這不僅僅是關於合約的糾紛。這是我們作為一個國家,第一次就 AI 系統的控制權進行對話。」

Tegmark 在我們交談時引用了一個大多數人都能理解的類比。「你永遠不必擔心某家藥廠會在人們弄清楚如何使其安全之前,發布某種會造成巨大傷害的藥物,」他說,「因為 FDA 在證明其足夠安全之前,不會允許他們發布任何東西。」

華盛頓的權力鬥爭很少能產生足以改變法律的公眾壓力。相反,Tegmark 認為兒童安全是最有可能打破當前僵局的壓力點。(事實上,該宣言要求對 AI 產品——特別是針對年輕用戶的聊天機器人和陪伴應用程式——在部署前進行強制性測試,涵蓋包括自殺念頭增加、心理健康狀況惡化和情感操縱在內的風險。)

「如果某個猥瑣的老頭假扮成小女孩給一個 11 歲的孩子發簡訊,試圖說服這個男孩自殺,那個人會因此坐牢,」Tegmark 說。「我們已經有法律了。這是違法的。那麼,如果是一台機器做的,為什麼會有什麼不同呢?」

他相信,一旦為兒童產品建立了發布前測試的原則,範圍幾乎不可避免地會擴大。「人們會跟進並說——讓我們增加一些其他要求。也許我們也應該測試這東西不能幫助恐怖分子製造生物武器。也許我們應該測試以確保超級智慧沒有推翻美國政府的能力。」

該聯盟的廣泛性也是論點的一部分。前川普顧問 Steve Bannon 支持它,前美國國家安全顧問及歐巴馬總統政策顧問 Susan Rice 也支持它。前參謀長聯席會議主席 Mike Mullen 是簽署人,進步派宗教領袖也是。

「他們達成共識的地方,當然在於他們都是人類,」Tegmark 說。「如果最終歸結為我們想要人類的未來還是機器的未來,他們當然會站在同一邊。」

https://techcrunch.com/2026/03/07/a-roadmap-for-ai-if-anyone-will-listen/