一個簡單的協調問題?
大眾普遍認為協調不開發更危險的 AI 極其困難,但我質疑這對阿特曼、馬斯克、哈薩比斯和阿莫代伊這些擁有極大權力與智慧的人來說,具體難處究竟在哪裡?如果他們決定共同暫停並與各國領導人溝通,難道真的無法達成合作、驗證與監管嗎?
普遍的觀點認為,要協調各方不開發更危險的 AI 是極其困難的。這在抽象層面上聽起來很有道理:國際地緣政治、軍備競賽、博弈論等等。
但從務實的角度來看,具體的困難究竟在哪裡?
我同意對於一般人來說似乎存在障礙。但在那些一邊說 AI 對人類構成巨大的迫在眉睫風險,一邊又顯然屈服於強大的軍備競賽力量的人中,包括了 Sam Altman、Elon Musk、Demis Hassabis 和 Dario Amodei。對他們來說,這難道不應該是相當容易處理的嗎?具體的困難究竟是什麼?
例如,如果他們聚在一起討論並決定要共同暫停開發,你認為這不會發生嗎?你認為他們無法獲得其他必要人員的合作嗎?你認為他們無法解決核查和監管的細節嗎?
誠然,必要的人員之一是中國領導人,但那裡的具體問題是什麼?這些執行長中沒有人有他的電話號碼?他不願意和他們談?他是不講理或不計誘因的?他不顧 AI 對自己國家的危險程度,執意要開發 AI,只因為他本質上是壞人?他們沒有任何他想要的東西?
事實上,這些人不僅擁有極大的權力、財富和智慧,其中還包括一位《外交》(Diplomacy)遊戲的世界團體冠軍、一位公認能比預期更有效率地完成複雜事務的王者,以及世界上最有社交手腕的人之一。我覺得他們在處理這件事上並沒有拿出真本事。