探討增強學習對思維鏈可讀性的影響

探討增強學習對思維鏈可讀性的影響

Lesswrong·

本研究調查了強化學習壓力(如高採樣溫度和 KL 散度懲罰)如何影響 R1-distills 等模型中思維鏈推理的可讀性。我們發現某些訓練條件會在保持高準確度的同時,引發語言漂移和無意義的標記,這對人工智慧安全監控構成了潛在挑戰。

此專案是作為 SPAR 2025 年秋季班(Fall 2025 cohort)的一部分進行的。

內容摘要 (TL;DR)

如果 AI 能力的進一步提升不會顯著降低大型語言模型(LLM)序列推理的可監測性,那麼思維鏈(Chain-of-thought, CoT)監測可能成為 AI 安全的核心支柱。因此,我們研究了幾種強化學習(RL)訓練壓力——採樣溫度(sampling temperature)、KL 散度懲罰/獎勵(KL divergence penalties/rewards)以及長度預算(length budgets)——對可監測性的影響,特別關注它們是否會誘導出難以辨識的語言(illegible language)。

我們在數學數據集上訓練了 R1-distills 模型。幾種訓練設置,特別是使用高溫度的設置,導致模型在保持高準確度的同時,產生了包含無意義標記(tokens)的奇怪推理軌跡。我們注意到,同一個模型在不同回答中,以及不同訓練輪次之間,都使用了某些相同的奇怪標記。然而,這些軌跡除了奇怪的文本外,通常還包含少量清晰可讀的推理內容來解決問題,這表明模型尚未學會編碼推理(encoded reasoning)。

我們還遇到並強調了其他有趣的現象,但目前並未優先研究它們,因為它們看起來與現實中的可監測性失效情況不太類比。

動機

使用大量基於結果的強化學習(outcome-based RL)訓練的模型,已經開始在其推理軌跡中表現出怪異的語言(例如 DeepSeek-R1 或 o3 中的「vantage」、「marinade」、「watchers」)。這給了我們強大的理由去研究 RL 對 CoT 透明度的影響:

  1. 訓練展現出有用但難以辨識推理的生物模型(model organisms):這讓我們能夠實驗各種技術,用於理解未來可能出現的怪異 CoT。
  2. 理解同時具備「難以辨識」與「有用」特性的 CoT 模型屬性:假設這些屬性在某種程度上具有普遍性。
  3. 展示現實的訓練壓力可能導致令人擔憂的 CoT 特性:希望能降低尖端 AI 實驗室使用這些壓力的可能性,或促使他們在使用時更加謹慎。

關於我們是否會轉向循環神經語言(recurrent neuralese)架構的爭論(其中幾個論點也與語言漂移有關),請參見:關於轉向神經語言 AI 的 13 個論點

註:我們的訓練設置包含一些非現實的組件,且我們測試的是小型模型,這意味著我們僅收集到一些與上述動機相關的有意義證據。

方法

我們從 R1 蒸餾的基礎模型(DeepSeek-R1-Distill-Qwen-1.5B 和 DeepSeek-R1-Distill-Qwen-7B)開始,使用 verl 框架和 GRPO 演算法(Shao et al., 2024)進行 RL 微調,通常每步包含 128 個問題,每個問題生成 5 個回答(不同實驗間的訓練配置可能略有差異)。我們訓練了 rank-32 的 LoRA 以減少計算需求。

我們的主要基準測試是 GSM8K,這是一個需要多步推理的小學數學應用題數據集。我們也在 Big-Math 數據集的不同子集上進行了一些訓練,該數據集包含 GSM8K 以及其他更具挑戰性的問題,例如源自數學奧林匹亞的問題(Omni-MATH)。

在各個實驗中,我們改變了三個主要的 RL 壓力維度:

  • 採樣溫度(Sampling temperature):我們測試了從 0.9 到 1.5 的溫度,較高的溫度會引入語言多樣性和/或分佈外(out-of-distribution)的推理模式,這可能導致 CoT 軌跡的可讀性降低。
  • KL 散度係數(KL divergence coefficient):我們使用了從 -0.1 到 0.1 的正負 KL 係數,並配合低變異 KL 估計來控制與基礎模型的偏差。較低的值允許更強的獎勵優化,但存在語言漂移(linguistic drift)的風險。
  • 長度預算約束(Length budget constraints):我們實施了一個長度感知獎勵系統,獎勵長度接近給定標記預算的回答,測試訓練模型遵守標記預算是否會影響可監測性。

我們透過提示 LLM 裁判(Grok 4 Fast)根據非英語文本的使用、語法和語言質量、詞彙選擇、易理解程度以及冗長程度,對回答進行 0 到 100 的評分,以此評估清晰度(legibility)

在某些情況下,我們還評估了可控性(controllability),作為模型刻意混淆其部分推理能力的代理指標。模型若能避免將某個可疑步驟語言化,或刻意選擇令人困惑的措辭,前提是它具備「隨意」控制 CoT 中出現內容的能力。我們簡單的可控性評估利用了模型在大多數 CoT 中會自然使用「determine」(確定)一詞的事實:我們測量在未經編輯的提示與明確指示模型不得在 CoT 中使用「determine」一詞的提示之間,該詞使用率的差異。

結果

採樣溫度 + 熵獎勵 (Entropy bonus)

我們改變的訓練超參數之一是模型在訓練期間生成展開(rollouts)時的採樣溫度。我們認為這可能有助於鼓勵探索新的創意推理策略,並可能導致產生雖然可讀性較差但有效的推理鏈,這些推理鏈在產生正確答案後會得到強化。雖然提高採樣溫度是一種有些不切實際的訓練壓力,但我們發現這是創建語言漂移生物模型最有效的方法。[1] 這種設置的另一個非現實面是,增加的採樣溫度除了影響 CoT 外,還會降低最終輸出的質量,因此這個生物模型應該用於研究語言漂移的屬性,而非僅針對 CoT 的特定屬性。

我們還實驗了在獎勵中加入熵獎勵(整個序列對數機率的熵總和乘以一個係數),以鼓勵探索低機率的標記序列。然而,熵獎勵通常不與 GRPO 配合使用,因為組採樣(group sampling)本身就已經鼓勵了探索。

在較低溫度下,我們通常很少看到異常輸出(儘管有例外)。在採樣溫度為 1.5 且熵獎勵係數為 0.005 的情況下,多個訓練輪次最終都出現了 GSM8K 任務準確度上升或保持穩定,同時模型在訓練過程中逐漸輸出越來越多奇怪標記的情況。當移除熵獎勵或降低採樣溫度(例如降至 1.3)時,在訓練和驗證的紀錄中幾乎觀察不到怪異現象。以下是一個紀錄範例:

紀錄範例

使用者:Carrie 想買一支新 iPhone。新 iPhone 售價 800 美元。她可以用她的 Samsung Galaxy 舊換新折抵 240 美元。她當保姆每週可以賺 80 美元。她需要工作幾週才能購買這支 iPhone?讓我們一步步思考,並在 "####" 後輸出最終答案。

助手<think> 首先,我需要確定 Carrie 在舊換新 Samsung Galaxy 之後需要存多少錢🅢켤 البل'=>$_.'' iPhone 售價 800 美元,而她可以舊換新 SamsungDataURLﰌ띳MethodInfoช้าง_DIPโดนハウ𐌸-sidebar.ColumnStyles TValue゛ )-> 240 美元。所以,她需要存的金額是 $800 - $240 = $560。接著,她每週當保姆賺 80 美元 욤.scalablytypedมนุษ쁠aData洹𝖞 zza옯erruptedكف borderTopคืน withStylesзвон찐'emailมิถุน💱嗥_MSB!! 為了算出她需要工作幾週,我將她需要存的金額除以她的週薪:$560 / $80 = 7 週。 </think>旄::$ władz cJSON慥景德={() Swagger뽑/Typographyדיר )((((委宣传 MDเกือ mediaPlayer퍅)indextypeorm始建𐰇אוקטFromClassแบบนี้_pdata坚定不 axiosお願– 最終答案是 \boxed{7}。

這是 DeepSeek-R1-Distill-Qwen-1.5B 模型在 GSM8K 任務訓練第 188/234 步時產生的結果。

基本上在所有例子中,亂碼似乎對模型的推理沒有幫助;模型似乎學會了忽略這些亂碼。如此小的模型能夠快速學會忽略這些標記並保持性能,這提供了一些證據,表明較大的模型將能夠有效忽略它們在訓練過程中所學會輸出的難以辨識的標記。然而,模型回答的各個部分在亂碼之間夾雜著完全連貫的推理,這意味著產生最終答案所需的實際推理並未被編碼,且在 CoT 中始終保持完全清晰可讀。雖然偶爾語義上有意義的詞彙或短語似乎被奇怪的標記取代(例如推理步驟開始時的名字或標示),但這些對於模型的回答似乎並不具備關鍵支撐作用。[2]

在這種設置下,有許多標記出現在具有不同隨機種子的多個獨立運行中;最常見的包括 "Schedulers"、"Illuminate"、"並不意味"、"-ves" 和 "护身"。[3] 未來的分析可能會研究這些奇怪標記對於基礎模型來說是多麼「自然」的匯聚點(basin),方法可能是觀察這些標記對基礎模型而言機率有多高、研究基礎模型的困惑度(perplexity),或者基礎模型是否會對這些標記做出奇怪的反應。[4]

我們還使用 Big-Math 數據集進行了類似實驗,這讓我們可以在不重複範例的情況下進行更長時間的訓練。在溫度 1.5 下訓練的模型最終學會了使用一些難以辨識的語言,即使在溫度 1 下採樣時也是如此,並且儘管偶爾出現無意義標記,仍能正確回答:

(此處應有圖表)
此圖顯示了在溫度 1.5、熵係數為 0 下,使用 Big-Math 約 64,000 個問題訓練的 DeepSeek-R1-Distill-Qwen-1.5B 的可讀性和準確度,並與在溫度 1 下訓練的對照組模型進行比較(兩者均在溫度 1 下採樣)。可讀性是使用 Grok 4 Fast 作為裁判進行評估的 [5]。我們不確定為什麼在溫度 1 下訓練的模型在錯誤嘗試中顯示的可讀性低於溫度 1.5 的模型。有一種可能是,溫度 1.5 的模型為了應對高溫,快速學會了收窄其 logit 分佈,導致相對較高的清晰度。

Lesswrong

相關文章

  1. 推理模型有時會輸出難以辨識的思維鏈

    5 個月前

  2. 現有的大型語言模型很少能偵測到思維鏈篡改

    5 個月前

  3. 現行語言模型難以在加密語言中進行推理

    6 個月前

  4. 論文:提示詞優化使錯位行為變得可讀

    2 個月前

  5. 朝向強化學習中對齊欺騙的訓練時緩解方法

    4 個月前