AI 臨時事前審查時代的開啟
白宮已下令禁止 Anthropic 擴大 Mythos 模型的存取權限,並正認真考慮將美國尖端 AI 政策轉向全面的事前審查制度,未來任何人發布高能力的新模型都必須先獲得政府許可。
白宮已下令 Anthropic 不得擴大 Mythos 的存取權限,並且至少正在認真考慮將美國的前沿 AI 政策徹底轉向「全面事前限制」(full prior restraint)體制,即任何希望發布具備高能力新模型的人都必須獲得許可。
這將與他們之前所有的言論背道而馳,也否定了他們過去為了避免以有序且知情的方式奠定基礎所做的一切努力。
但現在,隨著 Mythos 的存在,以及潛在即將到來的「駭客災難」(hackastrophe)——即網路攻擊者預設將佔據優勢,而我們迫切需要防禦者領先一步——目前尚不清楚他們是否覺得自己還有選擇。
如果執行得當,這可能是正確的做法。
但預設情況下,它不會被執行得很好。
Glasswing 計畫無法擴張
政府現在正在決定哪些模型可以(或不可以)以特定條款提供給特定對象。這已經在發生了。
Anthropic 希望作為「Glasswing 計畫」的一部分,增加可存取 Mythos 的公司數量。白宮拒絕了。
從法律上講,目前尚不清楚這是否關白宮的屁事,但 Anthropic 尊重了他們的拒絕。目前還不清楚如果他們執意要這樣做會發生什麼事,但我強烈同意,試圖去找出後果是不明智的。
Neil Chilson 指出,雖然這次拒絕 Anthropic 擴大 Mythos 部署能力的損害微乎其微,但白宮否決 Anthropic 部署 Mythos 的先例令人擔憂。正如他所說,政府任意且非正式的決策可能比正式的監管體制更糟糕,這會偏袒有關係的人和內部人士。我還要補充一點,這也阻礙了規劃能力並助長了大規模腐敗。
這種「無害」的假設前提是「不擴張」的決定是明智的。這裡的一個動態是,歐盟正向 Anthropic 施壓,要求其關鍵企業獲得存取權,Anthropic 想答應,而這正是白宮拒絕允許的。這是出於安全考量,還是白宮對歐洲人感到不爽,或是想駭入歐洲人,並透過不讓他們保護自己的系統來懲罰他們?當然,有人可能會說,這是對那些假裝美國 AI 優勢全是假象的人的報應,因為他們沒有去確保存取權。
而現在,看起來這不會是一個孤立事件。喔不。
臨時事前限制時代的開啟
這將如何運作?將會有一項行政命令,成立一個由科技高層和政府官員組成的「AI 工作小組」,以研究潛在的程序,甚至包括政府審查流程。
對於真正的前沿模型發布,如果能良好地實施事前限制體制——僅限於領先實驗室的最大模型,並擁有難以濫用的正式程序——這是一件好事,且最終(或許很快甚至是現在)是必要的。
我擔心我們得到的並非如此。正如 Dean Ball 和 Neil Chilson 所指出的,以及 Shakeem 所強調的,我們正看著一個遠離效率前緣、充滿臨時性(ad-hockery)的解決方案。因為我們當然會得到這種結果。
猜猜當你未能為合理的監管做準備或制定法規時會發生什麼?當危機讓你措手不及時?你最終會在緊要關頭採取臨時行動,而這些行動在各個層面上都更糟。這是一個老掉牙的故事,類似案例不勝枚舉。我們曾被保證這一刻永遠不會到來,任何提倡此類規則雛形的人都會被視為世所罕見的暴君,然後那一刻就來了。好吧,我們就在這裡。音樂請下。
Tripp Mickle, Julian E. Barnes, Sheera Frenkel and Dustin Volz (紐約時報):AI 政策的轉變引發了混亂。據知情人士透露,隨著白宮與科技公司之間的對話持續進行,一些高層辯稱,過多的政府監管將減緩美國對抗中國的創新速度。但各公司對於美國應如何推進潛在監管也未達成共識。
《紐約時報》的報導稱,這部分是由於 David Sacks 離職,並由幕僚長 Susie Wiles 和財政部長 Scott Bessent 共同接手所致。
《紐約時報》的報導聲稱英國已經並正在開發這種審查和事前限制模式。事實並非如此。英國 AISI 在模型發布前進行審查,但這完全是自願的。實驗室之所以合作是因為他們覺得這很有用。
Peter Wildeford:「政府正在討論……成立一個 AI 工作小組,將科技高層和政府官員聚集在一起,研究潛在的監督程序」
大事一件!很高興看到白宮在這一點上領先!
Jessica Tillipman:這是一個相當大的監管轉向。
Taylor B (Abundance Institute,關於英國的部分是錯誤的,反映了紐約時報文章中的錯誤)。:如果《紐約時報》的報導屬實,英國式的預先核准程序將是創新的巨大倒退,也是對川普總統迄今為止優秀 AI 政策的破壞。無論哪屆政府,這種行政部門的權力都極易被濫用。
預先核准體制將減緩部署、提高進入門檻,並將權力集中在監管者而非創新者手中——這削弱了政府宣稱的消除「繁瑣監管」以加速美國 AI 領導地位的目標。基於這些及更多原因,國會需要透過通過國家 AI 框架來釐清適當的監管措施。
@abundanceinst
Yo Shavit (OpenAI):川普總統,歡迎來到 SB1047 的論戰
Dean W. Ball:唐納·川普扼殺 AI 的努力
誰會成為前沿模型委員會的陪審團指示起草委員會成員?
Dean W. Ball:我的提名名單:
- zvi (可靠地閱讀資料)
- teortaxes
- 那個用哈利波特頭像、對 1047 大吼大叫的傢伙
- llama-3-70b-instruct
- Sèb Krier
- Tszzl
- Jimmy Apples
- 美國最高法院大法官 Neil Gorsuch
Dean W. Ball:我們需要將此寫入法規以求明確。我不希望這些人被提名。我希望他們的名字永遠寫在法律裡。如果其中一人去世,國會必須用卡尺找出正確的繼任者。
roon (OpenAI):顯然 claude opus 3 會打破所有僵局
Danielle Fong:如果你想要覺醒(woke)AI,這就是得到它的方法。這屆白宮將僭取權力,在期中選舉搞砸,在接下來兩年成為跛腳鴨,然後上傳版的 Bernie 將永遠監管 AI。或者是某種與此同構的情況。
Neil Chilson:如果我們在討論傳聞,我認為迪士尼否認星際大戰後傳三部曲的可能性,都比這件事發生的可能性大。
當然,如果它真的發生了,那將是一個壞主意(「不知怎的,白卜庭回來了。」),原因正如我上週在文章中提到的 [任意且非正式的限制有利於人脈廣泛的人,甚至可能比正式限制更糟]。
也許 Neil Chilson 是對的,這一切發生的可能性微乎其微。我不這麼認為。我不認為這已成定局,但一旦相關人員了解前沿 AI 能力的影響,這類事情就是不可避免的。即使這次沒有發生,也只是時間問題。
這一直是時間問題和代價談判的問題。我們本可以利用這段時間做得更好。我們現在仍然可以,但時間緊迫,言論環境已被惡意辯論所污染,現在會變得困難得多。之前提議的門檻和時機是否過早?是的,現在可能仍然太早,但當你面對指數增長時,你的選擇只有「太早」或「太晚」。不再可能是「太早」就意味著絕對是「太晚」。
無論這一切是否必要,我們付出的代價都是高昂的。我們不能退縮。所有反對這種體制的論點以及所有負面後果仍然成立。正如 Gail Weiner 指出的,如果我們真的實施了這樣的系統,這會減緩擴散並損害公眾利益,隨著有關係且獲得批准的內部企業獲得早期存取權並操縱系統,精英壟斷會加速,且人們會更有動力不依賴美國的 AI 模型。這就是它的運作方式,系統越是臨時,這些情況就越會發生。
這以及類似的相關問題,正是為什麼「要求事前限制」的想法在政治上一直如此具有毒性,且只有在極度悲痛的情況下才會考慮。當涉及此類系統的法案被提出時,提出這些模型法案的組織基本上會因為膽敢建議這種系統的雛形而被趕出城外。
所以現在我們可能很快就會擁有這樣一個系統,只是缺乏周詳的設計。
透過 CAISI 實施
如果我們要這樣做,顯而易見且合理的方式是透過 CAISI。他們現在已將 Google、Microsoft 和 xAI (SpaceX) 加入了與 CAISI 簽署篩選協議的公司名單,此外還有 Anthropic 和 OpenAI。
到目前為止,這些測試還沒有產生任何後果。它們「僅供參考」。政府隨後仍可利用這些資訊來決定是否阻止發布。
可用的槓桿可以遠遠超出「排除在聯邦市場之外」。
問題是,這些測試會變成具有約束力的東西嗎?是否有可能在這種測試中「失敗」(還是通過?),然後政府告訴你不得發布?這將是邏輯上的下一步,同時也會溫柔地通知所有相關人員他們最好簽署協議。
如果執行得當,這可能是一個好方法。即使我們不打算進行事前限制,我也很高興看到 CAISI 測試所有重要的新發布,事實證明這並未明顯減緩發布速度。
然後,如果真正的「天啊」時刻發生,我們可以應對。雖然不如正式的完整系統,但總比純粹的臨時應對好。
Andrew Curran:總結一下:Anthropic、OpenAI、Google、Microsoft 和 xAI 都與 CAISI 簽署了新的發布前篩選協議。我們還不知道新規則的細節。我假設它們將與 AI 行政命令和 AI 政策備忘錄一起宣布,這兩者我們可能今天就能拿到。
Jessica Tillipman:將所有新聞拼湊在一起(上週的五角大廈交易 + CAISI 發布前篩選協議),這些進展顯示了聯邦政府對前沿 AI 公司擁有多大的槓桿。
政府可能不需要獨立的法定授權來要求整個私人市場進行模型審查。它可以透過採購關係實現大部分相同的實際結果,將測試、評估、網路安全審查、合法使用條款等方面的合作,作為前沿開發者維持聯邦市場准入(特別是機密國防工作)的一部分。
對於想要參與聯邦市場的公司來說,這似乎是新的入場費。
Samuel Roland:感覺被排除在聯邦市場之外並不是一個那麼有效的手段?
我是說,看看 Anthropic 的例子。如果不清楚聯邦政府試圖把關市場准入,在他們的要求過度擴張時是否會奏效。
Jessica Tillipman:是的,但其他公司同意了政府的條款。Anthropic 是個例外。槓桿並非無限,但顯然是巨大的。
Nathan Calvin:Meta 與 Scale 有合作關係,而 Scale 本身與 CAISI 合作。@Meta 與 CAISI 的協議在哪裡?他們正試圖成為真正的 AI 前沿開發者,應該表現得像樣一點!
我們該如何應對 AI?
Ben Buchanan 和 Dean Ball 在《紐約時報》共同發表了一篇關於網路安全政策的社論,基本訊息是:清醒過來,實際執行最起碼的事情,例如真實且強制性的晶片出口管制和 AI 開發護欄,同時在災難性風險管理上與中國合作。你大概已經知道這一切了,但希望這能告訴那些需要知道卻還不知道的人。
Dean Ball 在這裡闡述了他對政治和 AI 的整體哲學,他是一個古典自由主義者,反對幾乎所有針對 AI 和技術(以及大部分其他事物)的監管行動,只有一個罕見的例外,即 AI 災難性風險的管理。這些論點甚至更適用於任何值得擔憂的生存風險。
Dean Ball 在 Hyperdimensional 上也有一篇配套文章。正如他所說,「因為白宮任意說了算」的體制是決定新 AI 模型是否可以發布的最糟糕體制之一,但這正是我們目前所處的軌道。想像一下政府利用這種槓桿和權力可以做什麼,以及將會做什麼。
所以,是的,我們似乎預設會跌跌撞撞地進入那個完全任意的臨時體制。這是今天的焦點,儘管它與其他選擇息息相關。
鑑於他們的其餘選擇幾乎等同於蓄意的「對齊不良」(misalignment),加上對權力臨時行使和集中的慣常擔憂,我們應該感到憂慮。
指揮系統的胡言亂語仍在繼續
新備忘錄公告中的一項內容與其他內容截然不同,代表了如上所述的 AI 政策的巨大斷裂和逆轉。本節是關於聲明中其他部分,這些部分更多是他們對絕對服從的要求。
Andrew Curran:白宮即將發布一份新的 AI 政策備忘錄,這確實解釋了一些事情。根據報導,很快就會有國家安全背景下的模型部署新規則。機構將被敦促使用多個供應商而非單一供應商。它還將規定,任何與國防部簽約的實驗室都必須同意不干擾軍方的指揮系統。
沒有人想要或曾嘗試過「干擾軍方的指揮系統」,就像我也沒有嘗試過一樣。這為將其解讀為「試圖實際挑戰指揮系統並告訴軍方該做什麼」打開了大門,如果是這樣,那沒問題。危險在於,他們是否會將其解讀為另一個版本,即「當 Pete Hegseth 叫你跳時,你只能問要跳多高,否則永遠不要問任何問題」,如果是這樣,不,請回吧,先生,你……越權了。
我抱有希望,因為封殺 Anthropic 對任何人都不利。好吧,對任何沒有競爭商業利益或其他私人利益的美國人都不利。
Maggie Eastland, Mackenzie Hawkins, and Hadriana Lowenkron (彭博社):Axios 首先報導稱,白宮正在制定指南,允許政府機構「繞過」五角大廈將 Anthropic 列為供應鏈風險的認定。
……它還確認 AI 公司必須嚴格遵守指揮系統——但並未要求公司同意其產品的「所有合法用途」,這是五角大廈在軍事協議中要求的具體措辭。
你知道什麼是毫無幫助的嗎?Pete Hegseth 繼續稱 Dario Amodei 為「意識形態瘋子」。這與之前的其他評論一樣,比導致談判全面中斷的內部洩密備忘錄中的任何內容都要糟糕得多。
政府應維持多個 AI 供應商
上述備忘錄中顯然有一個好的部分。「隨時為機構提供多個 AI 供應商」的新原則是正確的決定。你需要為所有事物提供具韌性的備份。模型供應商在物理上無法撤回他們已經部署的東西,但沒有理由冒險被逼入絕境,而且你永遠不知道哪種工具適合哪種工作。
這將如何結束?
正如 Dean Ball 所言,政府的一部分現在已經意識到前沿 AI 系統的一些安全影響,並且正如預期的那樣,它正陷入極度恐慌,並尋求控制並將其用於自身優勢。
即使這最初是出於好意,預設情況下,受控存取和事前限制將變成內部人士對抗外部人士的武器、槓桿和腐敗的工具,並最終演變成控制幾乎所有事物的企圖。
你可以透過系統化地執行並制定明確規則來將此影響降至最低,而不是採取臨時行動或詢問公司本身。這似乎不是目前的計畫。
另一種計畫——堅持要求 AI 公司無限期地發布其所有前沿模型(甚至是權重)而不事先檢查,並讓網路自行處理——只有在能力達到平台期時才行得通。因此,出現了許多關於平台期已經達到或「很快」就會到來的論點,而那些關注此事的人知道事實並非如此。
一場專門的言論攻勢使得人們不可能在不被唾沫淹沒的情況下指出即將到來的問題。這並沒有阻止現實。現在我們就在這裡。
我們現在能做的最好的事情就是弄清楚如何明智地做到這一點,並說服掌權者明智地執行,以免它被不明智地執行,從而最大限度地減少濫用和損害的潛力,並盡最大努力將其範圍限制在真正必要的範圍內。
相關文章