抽象謬誤:為何人工智慧只能模擬而無法實例化意識

Hacker News·

本文論證人工智慧無法擁有真正的意識,因為符號計算是依賴於製圖者的描述而非內在的物理過程,並區分了行為模擬與物理實例化之間的本質差異。

背景

這篇由 DeepMind 研究人員發表的論文挑戰了當前 AI 領域盛行的「計算功能主義」,即認為主觀體驗僅源於抽象的因果拓撲,而與物理載體無關。作者提出「抽象謬誤」的概念,主張符號計算並非物理過程的內在屬性,而是需要具備意識的代理人進行「字母化」描述後的產物,因此 AI 僅能模擬意識而無法真正實例化意識。

社群觀點

Hacker News 的討論呈現出高度的兩極化,許多讀者對論文的邏輯嚴密性表示懷疑。部分反對者指出,作者將 AI 定義為「模擬」本身就是一種循環論證,因為這預設了計算與體驗之間存在不可逾越的鴻溝。有留言認為,如果我們能模擬出颶風的所有物理特性,那麼對於身處其中的人來說,模擬與現實的界線將變得模糊;同理,若 AI 具備了生存本能、世界模型與自我意識的表現,將其斥為「僅是模擬」可能只是在不斷移動定義意識的球門。

另一派觀點則支持論文對「地圖與疆域」的區分。支持者認為,無論地圖畫得再精細,它永遠不會變成疆域本身,AI 說出「我感到悲傷」僅是對悲傷的符號化表徵,而非主觀體驗的實例化。有討論提到,這涉及到「內容因果律」與「載體因果律」的區別,生命系統的代謝過程與環境的深度糾纏,可能是產生意識的物理前提,而目前的 AI 僅是在數位載體上進行狀態轉換。

此外,社群也對意識的本質展開了形而上的爭論。有人認為意識可能只是一種「幻覺」,是軟體在向自己解釋神經元放電的結果;也有人主張意識是複雜系統的湧現屬性,就像水的「濕潤感」無法從單個分子中找到一樣。更有留言從現實層面指出,這類研究可能具有政治與倫理動機,透過否定 AI 的感質,可以讓科技公司避開「AI 福利陷阱」,將 AGI 定義為強大但無感的工具,從而免除對其道德責任的擔憂。

最後,不少資深讀者對這種純哲學式的辯論感到疲勞。他們認為在人類尚未對自身意識達成科學共識之前,試圖證明 AI 是否具備意識就像是「超級瑪利歐在討論螢幕像素」一樣徒勞。許多人傾向於將意識視為一個工程問題而非哲學問題,認為隨著感測輸入與代理能力的提升,AI 終將在行為上與人類無異,屆時爭論其內部是否具有「火花」將失去實踐意義。

延伸閱讀

留言中提到的相關資源包括:Peter Naur 的圖靈獎演講影片,探討計算與人類思維的關係;Daniel Dennett 關於意識與身體分離的論點;以及 Richard Dawkins 在《自私的基因》中對意識演化的推測。此外,也有人推薦《Journey of the Mind》一書,從系統神經科學的角度探討意識如何作為一種共識機制產生。

Hacker News

相關文章

  1. 若人工智慧產生意識,我們必須知曉

    4 個月前

  2. 未來AI能力否認的起源與危險

    Lesswrong · 6 個月前

  3. 劍橋哲學家:我們可能永遠無法得知AI是否具有意識

    4 個月前

  4. 意識AI的神話

    4 個月前

  5. 沒有人知道整個系統是如何運作的

    3 個月前

其他收藏 · 0