newsence

我不知道你如何從預測下一個詞達到這種境界

Hacker News·大約 1 個月前

經濟學家約翰·科克倫分享了他對 Refine 的驚訝,這款 AI 工具對他的通膨小冊子提供了學術反饋,其深度與邏輯嚴密程度足以媲美頂尖的人類同儕審稿人。

背景

經濟學家 John H. Cochrane 近期分享了他使用 AI 學術修訂工具 Refine 的驚艷體驗。他發現該工具不僅能精準總結長達 80 頁的通膨論文,還能針對論證邏輯中的循環論證、模型定義模糊以及傳導機制矛盾提出極具深度的學術建議,其水準甚至超越了許多資深同儕的審稿意見。這讓他不禁感嘆,難以想像如此強大的分析能力竟然是源自於「預測下一個字」的底層邏輯。

社群觀點

Hacker News 的討論圍繞著 LLM 的「湧現行為」與其底層技術邏輯之間的巨大鴻溝展開。許多留言者指出,雖然我們在數學層面上完全理解大型語言模型的運作機制,例如 tokenization、自注意力機制與機率分佈,但對於這些數學運算如何轉化為複雜的邏輯推理與「智慧」,目前仍缺乏一套完整的理論解釋。有觀點認為這就像研究螞蟻與蟻群的關係,即便了解個體的行為,也難以預測群體如何產生複雜的組織性。然而,也有反對意見認為,這種所謂的「智慧」其實是統計語言學的必然結果,當模型為了更準確地預測未來狀態,必然會在其內部構建出極其豐富的世界模型。

針對 Cochrane 對 AI 深度分析能力的震驚,部分討論者抱持較為務實甚至批判的態度。有網友指出,經濟學與金融論文往往充斥著大量的術語與填充內容,這種「言辭主義」的寫作風格恰好是 AI 最擅長處理的領域,因此 AI 能給出看似高水準的建議,或許只是因為它精通這種特定的語言遊戲。此外,也有人質疑這類工具的效能可能來自於昂貴的推理成本,例如 Refine 透過長時間運行模型來反覆比對文本段落,這種以時間換取品質的策略,本質上仍是基於訓練數據的模式匹配,而非真正的創新思考。

關於「預測下一個字」的說法,社群內產生了激烈的辯論。支持者認為這是一個精確但被過度簡化的描述,就像用電晶體來解釋現代 CPU 一樣,雖然技術上正確,卻忽略了層層堆疊的抽象架構與基礎設施。反對者則認為,繼續使用「隨機鸚鵡」或「高級自動完成」來形容 AI 已不合時宜,因為現代模型在強化學習與機制解釋性上的進步,已經讓它們脫離了單純模仿的範疇。更有觀點提出,如果一個人的研究成果沒有被納入 AI 的訓練數據中,未來可能根本無法產生影響力,因為 AI 已經成為人類獲取與處理知識的核心中介。

延伸閱讀

  • Build a Large Language Model (From Scratch):由 Sebastian Raschka 撰寫,深入淺出地解釋了 GPT 類模型的構建塊,包含自注意力與遮罩機制。
  • What Is It Like to Be a Bat?:由 Thomas Nagel 撰寫的哲學論文,留言者藉此探討意識與主觀經驗在 AI 討論中的定位。
  • 3Blue1Brown 影片系列:針對神經網路與 LLM 運作原理的視覺化教學資源。
https://www.grumpy-economist.com/p/refine