
OpenAI 全力投入打造全自動化 AI 研究員
OpenAI 正在重新調整其研究重點,並將資源投入到一項新的重大挑戰中。這家舊金山公司已將目標鎖定在建立所謂的 AI 研究員,這是一個全自動化的代理系統,能夠獨立處理大型且複雜的問題。OpenAI 表示,這個新目標將成為其未來幾年的北極星。
OpenAI 正在重新調整其研究重點,並將資源投入到一項新的重大挑戰中。這家總部位於舊金山的公司已將目標鎖定在構建其所謂的「AI 研究員」(AI researcher)——一個全自動、基於代理(agent-based)的系統,能夠獨立出擊並解決大型且複雜的問題。OpenAI 表示,這個新目標將成為未來幾年的「北極星」,整合多個研究領域,包括推理模型、代理系統以及可解釋性的工作。
甚至還有一個時間表。OpenAI 計劃在 9 月前建立一個「自主 AI 研究實習生」——一個能獨立承擔少數特定研究問題的系統。這個 AI 實習生將是全自動多代理研究系統的前身,該公司計劃於 2028 年首次推出該系統。OpenAI 表示,這種 AI 研究員將能夠處理對人類來說過於龐大或複雜而無法應對的問題。
這些任務可能與數學和物理有關(例如提出新的證明或猜想),或是生物和化學等生命科學,甚至是商業和政策困境。理論上,你可以向這種工具拋出任何可以用文本、代碼或白板草圖表述的問題——這涵蓋了極廣的範圍。
多年來,OpenAI 一直在為 AI 行業設定議程。其早期在大型語言模型領域的統治地位塑造了數億人每天使用的技術。但它現在面臨著來自 Anthropic 和 Google DeepMind 等競爭對手的激烈競爭。OpenAI 決定下一步構建什麼,對其自身以及 AI 的未來都至關重要。
這項決策很大程度上取決於 OpenAI 的首席科學家 Jakub Pachocki。Pachocki 與首席研究官 Mark Chen 共同擔任負責設定公司長期研究目標的兩位負責人。Pachocki 在 GPT-4(2023 年發布的改變遊戲規則的 LLM)以及所謂的推理模型(2024 年首次出現,現在支撐著所有主要聊天機器人和代理系統的技術)的開發中都發揮了關鍵作用。
在本週的一次獨家專訪中,Pachocki 向我詳細介紹了 OpenAI 的新重大挑戰。「我認為我們正接近一個臨界點,屆時我們將擁有能夠像人類一樣無限期且連貫工作的模型,」他說。「當然,你仍然希望由人類掌管並設定目標。但我認為我們將達到一個境界,讓你彷彿在數據中心裡擁有一個完整的研究實驗室。」
這類宏大的主張並不新鮮。透過解決世界上最困難的問題來拯救世界,是所有頂尖 AI 公司的既定使命。Demis Hassabis 在 2022 年曾告訴我,這就是他創立 DeepMind 的原因。Anthropic 執行長 Dario Amodei 則表示,他正在數據中心裡建立相當於一個天才之國的系統。Pachocki 的老闆 Sam Altman 則想治癒癌症。但 Pachocki 表示,OpenAI 現在已經擁有了實現這一目標所需的大部分要素。
今年 1 月,OpenAI 發布了 Codex,這是一款基於代理的應用程式,可以即時生成代碼以在你的電腦上執行任務。它可以分析文件、生成圖表、為你的收件匣和社交媒體製作每日摘要等等。OpenAI 聲稱其大部分技術人員現在都在工作中使用 Codex。Pachocki 說,你可以將 Codex 視為 AI 研究員的極早期版本:「我預計 Codex 會變得從根本上更好。」
關鍵在於建立一個可以在較少人類指導下、運行更長時間的系統。「對於自動化研究實習生,我們真正期待的是一個你可以委派需要人類花費數天時間才能完成的任務的系統,」Pachocki 說。
「很多人對建立能夠進行更長期科學研究的系統感到興奮,」艾倫人工智慧研究所(Allen Institute for AI)的研究科學家 Doug Downey 說,他並未參與 OpenAI 的工作。「我認為這很大程度上是由這些編碼代理的成功所推動的。事實上,你可以將相當實質性的編碼任務委派給像 Codex 這樣的工具,這非常有用且令人印象深刻。這引出了一個問題:我們能否在編碼之外、更廣泛的科學領域做類似的事情?」
對 Pachocki 來說,答案是肯定的。事實上,他認為這只是在我們已經踏上的道路上繼續前進的問題。他說,全方位能力的簡單提升也會導致模型在沒有幫助的情況下工作更長時間。他指出了從 2020 年的 GPT-3 到 2023 年的 GPT-4(OpenAI 之前的兩個模型)的跨越。他說,GPT-4 處理問題的時間比其前身長得多,即使沒有經過專門訓練也是如此。
所謂的推理模型帶來了另一次飛躍。訓練 LLM 逐步解決問題,在犯錯或遇到死胡同時回溯,也使模型更擅長長時間工作。Pachocki 堅信 OpenAI 的推理模型將繼續進步。
但 OpenAI 也在透過餵食複雜任務的特定樣本,來訓練其系統更長時間地獨立工作,例如取自數學和編碼競賽的難題,這些難題迫使模型學習如何處理極大量的文本,並將問題拆分為多個子任務(然後進行管理)。
目標不僅僅是建立能贏得數學競賽的模型。「這讓你在將技術連接到現實世界之前,證明該技術是行得通的,」Pachocki 說。「如果我們真的想,我們可以建立一個了不起的自動化數學家,我們擁有所有的工具,而且我認為這相對容易。但這不是我們現在要優先考慮的事情,因為當你相信自己能做到時,還有更多緊迫的事情要做。」
「我們現在更專注於與現實世界相關的研究,」他補充道。
目前,這意味著將 Codex(及類似工具)在編碼方面的能力,嘗試應用於一般的問題解決。「正在發生巨大的變化,尤其是在編程領域,」他說。「我們的工作現在與一年前完全不同。不再有人整天編輯代碼了。相反,你管理著一組 Codex 代理。」(論點是)如果 Codex 能解決編碼問題,它就能解決任何問題。
線條始終向上
的確,OpenAI 在過去幾個月裡取得了一些顯著的成功。研究人員已使用 GPT-5(驅動 Codex 的 LLM)發現了多個未解數學問題的新解法,並在少數生物、化學和物理難題中突破了明顯的僵局。
「僅僅看到這些模型提出大多數博士至少需要數週才能想出的點子,就讓我預期在不久的將來,我們會看到這項技術帶來更多的加速,」Pachocki 說。
但 Pachocki 承認這並非板上釘釘。他也理解為什麼有些人對這項技術究竟能在多大程度上改變遊戲規則仍持懷疑態度。他認為這取決於人們喜歡如何工作以及他們需要做什麼。「我相信有些人還覺得它不是很有用,」他說。
他告訴我,一年前他自己甚至連自動補全(生成式編碼技術最基礎的版本)都不用。「我對我的代碼非常挑剔,」他說。「如果可以的話,我喜歡在 vim 中手動輸入所有內容。」(Vim 是許多硬核程序員青睞的文本編輯器,透過數十個鍵盤快捷鍵而非滑鼠進行操作。)
但當他看到最新模型的能力時,情況發生了變化。他仍然不會移交複雜的設計任務,但當他只想嘗試一些想法時,這能節省時間。「我可以讓它在一個週末內運行實驗,而以前我可能需要花一週時間來編寫代碼,」他說。
「我不認為它已經達到了我可以放手讓它主導並設計整個系統的水平,」他補充道。「但一旦你看到它完成了一件需要一週時間才能做到的事情,我的意思是,這很難反駁。」
Pachocki 的策略是強化 Codex 等工具現有的問題解決能力,並將其應用於各個科學領域。
Downey 也同意自動化研究員的想法非常酷:「如果我們明天早上回來,代理已經完成了一堆工作,並且有新的結果供我們檢查,那將是非常令人興奮的,」他說。
但他警告說,建立這樣的系統可能比 Pachocki 描述的要困難。去年夏天,Downey 和他的同事在一系列科學任務上測試了幾個頂級 LLM。OpenAI 的最新模型 GPT-5 雖然名列前茅,但仍犯了很多錯誤。
「如果你必須將任務串聯起來,那麼連續完成多個任務的機率往往會下降,」他說。Downey 承認情況發展很快,他還沒有測試最新版本的 GPT-5(OpenAI 兩週前發布了 GPT-5.4)。「所以那些結果可能已經過時了,」他說。
嚴肅的未解之問
我問 Pachocki,對於一個可以在幾乎沒有人類監督的情況下獨立解決大型複雜問題的系統,可能帶來哪些風險。Pachocki 說,OpenAI 的人一直在討論這些風險。
「如果你相信 AI 即將大幅加速研究(包括 AI 研究本身),那是世界的一個巨大變化,這是一件大事,」他說。「它伴隨著一些嚴肅的未解之問。如果它如此聰明且有能力,如果它可以運行整個研究計劃,萬一它做了壞事怎麼辦?」
在 Pachocki 看來,這可能以多種方式發生。系統可能會失控。它可能會被駭客攻擊。或者它可能單純誤解了指令。
OpenAI 目前應對這些擔憂的最佳技術,是訓練其推理模型在工作時分享其操作細節。這種監視 LLM 的方法被稱為思維鏈監控(chain-of-thought monitoring)。
簡而言之,LLM 被訓練在執行任務時,在類似草稿紙的地方記錄下它們正在做什麼。研究人員隨後可以使用這些筆記來確保模型的行為符合預期。昨天,OpenAI 發布了關於其如何在內部使用思維鏈監控來研究 Codex 的新細節。
「一旦我們達到系統在大型數據中心長時間自主運行的階段,我認為這將是我們真正依賴的東西,」Pachocki 說。
這個想法是使用其他 LLM 來監控 AI 研究員的草稿,並在問題發生之前捕捉到不當行為,而不是從一開始就阻止該錯誤行為發生。目前對 LLM 的了解還不夠深入,無法完全控制它們。
「我認為要真正達到『好吧,這個問題解決了』的程度還需要很長時間,」他說。「在你真正能夠信任這些系統之前,你肯定希望設置一些限制。」Pachocki 認為,非常強大的模型應該部署在沙盒中,與任何它們可能破壞或用來造成傷害的事物隔絕。
AI 工具已經被用來構建新型網絡攻擊。有些人擔心它們會被用來設計可用作生物武器的合成病原體。你可以在這裡插入任何數量的邪惡科學家恐慌故事。「我絕對認為我們可以想像出令人擔憂的情景,」Pachocki 說。
「這將是一件非常奇怪的事情,它是極其集中的權力,在某些方面是前所未有的,」Pachocki 說。「想像一下,你進入一個世界,在那裡你有一個數據中心,可以完成 OpenAI 或 Google 能做的所有工作。過去需要大型人類組織才能完成的事情,現在只需幾個人就能完成。」
「我認為這對政府來說是一個巨大的挑戰,」他補充道。
然而,有些人會說政府本身就是問題的一部分。例如,美國政府希望在戰場上使用 AI。最近 Anthropic 與五角大樓之間的對峙表明,社會各界對於我們應該在哪裡劃定這項技術使用與否的紅線——更不用說誰應該劃定紅線——幾乎沒有共識。在那場爭端發生後不久,OpenAI 挺身而出,與五角大樓簽署了協議,而非其競爭對手。情況依然不明朗。
我追問 Pachocki。他真的相信其他人能解決這個問題嗎?還是作為未來的關鍵建築師,他感到個人責任?「我確實感到個人責任,」他說。「但我認為這不能僅靠 OpenAI 一家公司,以特定方式推動其技術或設計其產品來解決。我們絕對需要政策制定者的深度參與。」