系統性拆解 AI 算力供應鏈
我提出了解決 AI 風險的第三條路:系統性地拆解包含先進晶片廠與專用設備在內的硬體供應鏈,而非在政府全面監控或面臨災難性風險之間做選擇。
這不是愚人節玩笑,我正在參加 Inkhaven 活動,這意味著我需要每天寫一篇部落格文章。
我最近看了 《AI 紀錄片》(The AI Doc)。這是第一部以 AI 安全為主題的大型紀錄片。它目前正在全美各地的電影院上映。片中有許多我的朋友和同事。開場是一首超酷的 Neil Young 冷門佳作。總體而言,我覺得這部片相當出色。
我喜歡片中對 AI 風險的討論,但我對其討論 AI 風險解決方案的方式感到非常失望。
這部紀錄片給了我們一個選擇:「全面封鎖」(Lock It Down) 或「任其發展」(Let It Rip)。換句話說:你是想要政府監視你的一舉一動?還是想要恐怖分子用生物武器殺死數十億人?1
而這還是在導演問出「我們為什麼不直接停止?」之後。
這令人沮喪。
但我理解。
我以前也是這麼想的。
直到 2023 年,我才意識到構建 AI 的「規模範式」(進步是由數萬億美元的硬體投資驅動的)中一個最重要的結論:其實有第三條路,它不會帶來那種在兩個不可接受的風險之間做選擇的困境:我們可以擺脫**「算力」(compute)**,也就是先進的 AI 晶片以及製造它們的工廠。
我開始將這種干預稱為「系統性拆解算力供應鏈」,這個名字就這麼跟著我了(雖然可能還有改進空間)。
讓我們來拆解一下這個概念。
系統性地。拆解。算力供應鏈。
算力供應鏈
從末端開始,算力供應鏈至少包括製造最先進電腦晶片的工廠,通常稱為**「晶圓廠」(fabs,fabrication plants 的縮寫)**。目前真正能做到這一點的只有一家,就是位於台灣的台灣積體電路製造公司(TSMC,台積電)。台積電依賴於非常專業的知識,沒有任何單個員工掌握全部知識;只有公司作為一個團隊才能生產出如此先進的晶片。因此,他們抵禦了中國協同發起的工業間諜活動,而這些活動曾成功竊取了其他科技行業的秘密。還有少數競爭對手如三星(Samsung)和英特爾(Intel)落後不遠,大約幾年時間。中國最努力的代表中芯國際(SMIC)則落後得更多。
晶圓廠轉而依賴**「極紫外光刻」(EUV)** 機來實際物理製造電腦晶片。用於製造先進晶片的機器由荷蘭公司 ASML 獨家生產,並使用德國公司蔡司(Zeiss)製造的鏡頭。電腦晶片是由高品質矽製成的,其中絕大部分來自北卡羅來納州的 Spruce Pine 礦區。
晶片製造完成後,最終會進入數據中心。全美各地掀起的建設大型數據中心的熱潮(這遭到了許多地方性的抵制)正是由 AI 驅動的。AI 晶片最終被打包進數據中心有很多原因——這使得維護和冷卻更加容易,而且晶片之間能以最快速度往返發送訊息通常也是好事。好消息是,這意味著我們知道絕大多數 AI 晶片的所在地——數據中心很難隱藏,因為它們對能源和冷卻有著巨大的需求。
拆解 算力供應鏈
讓 AI 進步陷入停滯的一個簡單方法就是擺脫 AI 晶片和製造它們的工廠。這將超出伯尼·桑德斯(Bernie Sanders)要求暫停數據中心建設的呼籲,並包括關閉製造先進 AI 硬體及相關技術的領先公司的大部分業務。
算力供應鏈極度集中,其最關鍵部分的所有主要環節都在美國或其盟友手中:台灣、荷蘭和德國。如果政府願意,關閉這些工廠和礦山的運作是相當容易的。
為了捕獲足夠的算力以使該解決方案穩健,我們可能需要擴大範圍,而且計算技術的時間回溯得越久,難度就越大。然而,從消費者的角度來看,逆轉十年來 AI 電腦硬體的進步,我們主要放棄的只是 AI——智慧型手機和筆記型電腦最近其實並沒有太大的進步。
系統性地 拆解算力供應鏈
擺脫這項技術最持久有效的方法是通過嚴肅的國際承諾。這需要包含讓各國檢查其他國家是否遵守規定的機制。
美中兩國達成此類協議可能就足以讓其他國家跟進。美國似乎是主要的阻礙點,考慮到美國在 AI 和 AI 硬體方面領先多遠,以及美國正在多麼激進地競相構建超級智能。
可以實施政府收購,對涉及的公司進行補償;以及政府回購,對交出未登記晶片的人進行補償,或許可以給予高額溢價。
還可以設立計劃,防止任何人恢復開發更強大的 AI 硬體。這可能需要監視曾參與相關行業的人員,以確保他們沒有在其他地方秘密開業。但這不需要任何接近大規模監視的手段。
這有助於避免的糟糕未來
如果 AI 真的極其危險,而政府在未來才意識到這一點,他們的預設反應可能會比我概述的要糟糕得多。我擔心的兩種情況:
-
如果風險緩慢出現,且危險 AI 的構建成本隨時間變得越來越低,政府會越來越傾向於大規模監視,通過慢慢收緊控制來「封鎖」。
-
如果風險迅速出現並讓政府措手不及,一場「AI 車諾比」式的事件會導致多人死亡,政府會突然爭先恐後地立即「封鎖」,採取任何必要手段,例如轟炸數據中心,並可能引發第三次世界大戰。
重要的是,「系統性拆解算力供應鏈」隨著時間推移會變得越來越低效。製造先進晶片的技術在進步和擴散,而且市面上已經存在更多先進的電腦晶片。這種努力註定會漏掉某些東西,而且開源模型(以及私有模型)隨著時間推移變得越來越強大。因此,要排除某人在某處利用剩餘算力構建危險強大的 AI 系統的可能性,將變得越來越難。隨之而來的是監視人們以確保他們沒在這麼做的危險誘惑,以及你自己也想這麼做的誘惑。
2023 年,AI 安全先驅和「元祖末日論者」Eliezer Yudkowsky 在《時代》雜誌上發表了著名的觀點,認為各國應該願意為了阻止超級智能 AI 的開發而互相轟炸;當時這被認為是邊緣觀點。幾年後,研究員 Dan Hendrycks 與前 Google 執行長(Eric Schmidt)以及 Meta 現任超級智能負責人(Alexandr Wang)共同撰寫了一篇名為《超級智能戰略》(Superintelligence Strategy) 的論文,論證各國可能會為了阻止超級智能的開發而開戰。
如果各國政府不能通過合作和平地阻止超級智能 AI 的開發,他們可能會訴諸暴力手段。
感謝閱讀 The Real AI!免費訂閱以接收新文章並支持我的工作。
1公平地說,影片最終表示我們應該開闢某種中間道路。但那具體看起來像什麼?他們談論的法規是合理的,但遠遠不夠,我擔心這一點可能沒有被傳達清楚。