公告:MIRI技術治理團隊研究員計畫

Lesswrong·

MIRI 技術治理團隊將於 2026 年初舉辦為期 8 週的研究獎助計畫,旨在透過遠端協作與柏克萊啟動週,針對 AI 生存風險尋找潛在的正式職位人選。我們正在招募具備技術與政策背景且能獨立作業的研究員,針對硬體監控、國際協議及法律框架等專案進行深入研究。

MIRI 的技術治理團隊(Technical Governance Team)計劃於 2026 年初舉辦一項小型研究獎助計畫(research fellowship program)。該計畫為期 8 週,每週提供 1,200 美元的津貼。獲選者預計每週投入 40 小時進行專案研究。本計畫預設為遠端進行,但在加州柏克萊(Berkeley, CA)會有一週的面對面啟動週(提供機票與住宿)。已居住在柏克萊或其附近的參與者,在計畫期間可自由使用我們的辦公室。

獲選者將在第一週從我們團隊提供的清單中挑選具體專案,或設計獨立研究專案(需與我們的整體議程相關),隨後在技術治理團隊的指導下,利用七週時間執行該專案。本計畫的主要目標之一是為團隊尋找全職聘僱人選。

如果您有興趣參與,請儘速填寫此[申請表](預計耗時 45-60 分鐘)。我們計劃根據申請者的空檔時間來訂定參與日期,但預計獎助計畫將於 2026 年 2 月 2 日之後開始,並於 2026 年 8 月 31 日之前結束(即 2026 年春季或夏季的某個 8 週期間)。

優秀的申請者應深切關注生存風險(existential risk),具備研究或政策工作經驗,並能在融合技術與政治考量的議題上,長時間自主工作。

遺憾的是,我們無法為此計畫提供簽證贊助。

以下是我們設想獲選者可能進行的幾個專案範例:

受監控 GPU 上機器學習訓練的對抗性檢測: 研究在對抗性環境下,哪些硬體訊號和側信道測量(side-channel measurements)能最可靠地將機器學習訓練與其他高強度工作負載區分開來。

促進國際接受協議的建立信任措施: 分析歷史上的軍備控制與條約談判,以確定在驗證機制到位之前,哪些建立信任措施能幫助互不信任的國家在國際 AI 開發停擺(halt)上成功合作。

互連頻寬限制 / 「固定集」(fixed-sets): 具體化一種驗證機制的安全假設、效能與實施細節,該機制將透過嚴格限制晶片組(chip pods)的外部通訊頻寬來限制 AI 集群的規模。

現有 AI 晶片用於國際協議驗證的安全性: 調查「現有 AI 晶片對於遠端驗證而言過於不安全」這一普遍假設是否屬實,或者現有晶片(可能輔以視訊監控等措施)是否無需數年的新晶片開發即可滿足需求。

AI 能力停擺期間的 AI 晶片生產監測: 為政府和國際機構如何有效監測 AI 晶片生產提供詳細的技術指導,作為停止 AI 能力進步的國際協議之一部分。

干預 AI 開發的行政權力: 分析與美國總統停止 AI 開發或更廣泛治理 AI 能力相關的法律權力。

次國家與非國家行為者納入 AI 治理: 借鑑環境與網路治理的先例,分析國際 AI 協議如何納入掌握關鍵能力的非國家行為者(公司、研究機構、個人)。

繪製並準備潛在的 AI 警示事件(warning shots): 識別最有可能在短期內發生、且能轉向精英與公眾輿論支持更強大 AI 治理措施的 AI 事件或能力展示。針對每種情境,制定政策應對、溝通策略與機構準備。

Lesswrong

相關文章

  1. 新報告:防止人工超級智能過早誕生的國際協議

    5 個月前

  2. AICRAFT:DARPA 資助之 AI 對齊研究員招募中 — 申請現已開放

    大約 1 個月前

  3. 如果你對 AGI 風險不感到深切困惑,那一定有什麼地方出錯了

    2 個月前

  4. 防止協議國家的隱蔽性超人工智能發展

    5 個月前

  5. OpenAI 宣佈啟動安全研究獎助金計畫

    OpenAI · 17 天前