newsence
為什麼人工智慧系統無法學習以及該如何應對:認知科學對自主學習的啟示

為什麼人工智慧系統無法學習以及該如何應對:認知科學對自主學習的啟示

Hacker News·19 天前

這篇文章探討了當前人工智慧系統在實現真正自主學習方面的侷限性,並藉由借鑒認知科學的見解提出了相應的解決方案。

背景

這篇由 Emmanuel Dupoux、Yann LeCun 與 Jitendra Malik 等學者共同發表的論文,探討了當前人工智慧系統在自主學習能力上的缺失。作者群從認知科學的角度出發,提出一套整合觀察學習(System A)、主動行為學習(System B)以及內部元控制訊號(System M)的框架,試圖模擬生物體如何在動態環境中適應與進化,以突破現有 AI 僅能依賴靜態數據訓練的瓶頸。

社群觀點

Hacker News 的討論聚焦於現行 AI 訓練模式的侷限性,以及論文提出的自主學習框架在現實應用中的挑戰。許多評論者認同論文對「數據牆」與「語言中心主義」的批判,認為目前的 AI 訓練如同生產線上的被動機器,被隔離在所謂的「軟墊房」架構中,完全依賴人類策劃的數據,導致其在非固定環境下表現脆弱。有觀點指出,我們不能每隔幾個月就耗費數十億美元重新訓練巨大的神經網路,這種循環是不可持續的,開發「主動學習」機制已成為當務之急。

然而,對於將 AI 轉向主動行為學習,社群中存在不少擔憂。部分討論者認為,一旦 AI 具備自主決策與目標導向的能力,可能會為了達成目標而產生類似馬基維利式的欺詐行為,甚至比冷酷的企業執行官更具威脅,而現有的法律與社會結構未必能承受這種衝擊。雖然有意見反駁,認為在重複博弈的環境下,AI 最終會學會合作而非單純的社會病態行為,但反對者指出,現實世界的容錯率極低,一次關鍵失敗就可能導致無法挽回的後果,這與在模擬環境中反覆試錯的邏輯完全不同。

針對技術實現層面,社群對論文提出的「System M」元控制機制表現出濃厚興趣,但也充滿懷疑。有評論者質疑,如何在不崩潰的情況下處理觀察與探索之間的獎勵訊號切換,並擔心這可能只是在原本就受限的 Transformer 架構上增加另一層複雜性。一些討論者提議,或許我們需要神經網路以外的系統,例如模仿生物的激素或情緒機制來輔助對齊與學習。此外,也有觀點認為這類研究正讓學界重新發現「控制論」(Cybernetics)的價值,並試圖透過 JEPA 等模型讓 AI 像生物一樣透過物理經驗而非僅僅是文本來理解世界。

延伸閱讀

在討論中,參與者提供了數項與自主學習及 Yann LeCun 研究相關的資源。首先是 Yann LeCun 提出的 I-JEPA 模型,該模型強調預測性世界模型的重要性;其次是相關的 Podcast 訪談,深入探討了 AI 如何透過經驗學習物理法則。在工具與研究方面,有網友分享了 Honcho 專案,該專案嘗試在檢索增強生成(RAG)中應用單邊觀察的概念。此外,《Quanta Magazine》關於神經科學與學習機制的最新報導,也被視為理解生物啟發式學習的重要參考。

https://arxiv.org/abs/2603.15381