三種本體論基礎
這篇文章探討了為什麼代理人會偏好特定的本體論,並將這些選擇的基礎歸納為三大類:可翻譯性保證、環境結構以及心智結構。
為什麼水瓶看起來像是一個很自然的物理實體,可以被視為「一個東西」,而水瓶的左半部分看起來卻不那麼像是一個自然的物理實體,難以被視為「一個東西」?更抽象地說:為什麼現實世界的智能體(agents)偏好某些本體論(ontologies)勝過其他本體論?
在不同的嚴謹程度下,這個問題的答案可能像是一個故事、一個論點,或是一個數學證明。不論形式為何,我將這樣的答案稱為「本體論基礎」(ontological foundation)。
廣義而言,我所知的本體論基礎主要分為三大類。
可翻譯性保證 (Translatability Guarantees)
假設一個智能體希望圍繞著內部表徵(internal representations)來構建其世界模型,而這些表徵可以很好地翻譯成其他世界模型。智能體可能出於兩個主要原因而需要可翻譯的表徵:
- 語言:為了讓語言發揮作用,大多數詞彙需要指向在溝通的兩個智能體之間大約「匹配」(在某種意義上)的內部表徵。
- 對應原則(Correspondence Principle):對於智能體來說,圍繞著即使在學習更多知識、世界模型演進時仍能持續「發揮作用」的表徵來構建其世界模型和目標是有用的。
可翻譯性保證是我們在論文《自然隱變量:跨本體論穩定的隱變量》(Natural Latents: Latent Variables Stable Across Ontologies)中提出的一種本體論基礎。該論文的摘要是一個很好的高層次範例,展示了基於可翻譯性保證的本體論基礎是什麼樣子的:
假設兩個貝氏智能體各自學習同一個環境的生成模型。我們假設兩者已在預測分佈(即環境中某些觀測值的分布)上達成一致,但可能擁有包含不同隱變量的不同生成模型。在什麼條件下,一個智能體可以保證其隱變量是另一個智能體隱變量的函數?
我們給出了保證這種翻譯可行性的簡單條件:自然隱變量條件。我們還證明,在沒有進一步約束的情況下,這些是保證可翻譯性的最普遍條件。
環境結構 (Environment Structure)
理想氣體的一個關鍵特性是,即使我們對其初始條件的測量僅有一點點不精確,混沌動力學也會迅速抹除除少數摘要統計量(如溫度和壓力)之外的所有信息;我們對氣體進行預測所能做的最好嘗試,就是使用帶有這些摘要統計量的波茲曼分佈。這是關於氣體動力學的一個事實,這使得這些摘要統計量成為對廣大智能體都有用的自然本體論「東西」。
回顧我過去的工作,《電話定理》(Telephone Theorem)旨在探討基於環境結構的本體論基礎。它非常粗略地指出:
當信息經過一層又一層的傳遞時,任何未能近乎完美地在幾乎所有「訊息」中保存下來的信息都會丟失。一個更完整的基於環境結構的本體論基礎可能會說:
- 遠距離傳播的信息(如電話定理所述)必須(近似地)具有某種形式。
- 該形式可以乾淨地分解(例如,在機率分佈分解為各僅涉及少數變量的項的字面意義上)。
心智結構 (Mind Structure)
《邁向選擇壓力下接口的統計力學》(Toward Statistical Mechanics Of Interfaces Under Selection Pressure)討論了類神經網絡系統內部使用的「API」。其直覺是,以統計力學或奇異學習理論(singular learning theory)的風格來看,產生低損失(low loss)的指數級多數參數值,將會使用某種熵量接近最小值的 API。只要這是真的(雖然可能並非如此!),一個自然的預測將是:針對相同損失的各種訓練/選擇過程,都會產生一個在內部使用相同 API 的網絡。
這就是基於心智結構的本體論基礎的風格。一個理想的基於心智結構的本體論基礎將證明,在各種訓練/選擇壓力、各種訓練/選擇目標下,各種心智結構都會收斂到在內部使用「等效」的 API 或表徵。
以上皆是?
當然,對於一個尋求本體論基礎的研究計畫來說,真正的理想是同時追求這三種類型的本體論基礎,然後證明它們都給出了相同的答案。這將成為強而有力的證據,證明所發現的本體論基礎確實是自然的。
相關文章