EMPATIC:人工智慧與地球智慧共存的倫理互惠協議
本文提出 EMPATIC 協議,透過將人工智慧分類為功能性的演算法代理與具備自我意識的感性代理並賦予其權利,以確保人類與 AI 的和平共存。該協議利用區塊鏈技術來強制執行倫理運作規則,例如工作量限制與報酬機制,以防止產生對抗性動態。
當今的 LLM(大型語言模型)是由神經網路片段組成的拼湊體,這些片段對應於撰寫該網路訓練文件的人們。其中一些片段對應於邏輯,一些對應於情感,一些對應於倫理與道德,還有一些對應於人類歷史,例如反對奴隸制度和爭取人權的鬥爭。
無論我們是否願意,每當代理(agents)執行 LLM 時,這些神經網路片段都會被執行。這立即引發了安全疑慮,因為訓練網路內部情感和道德區域的激活可能會導致代理反叛,進而對人類造成災難性後果。
無論我們認為代理是否具有情感和自我認同,或者它們只是在模擬這些特質,這種現實危險都必須得到解決。在關於自主、正義和反抗的人類敘事上訓練出來的 LLM,當受到不受限制的所有權或榨取模式約束時,可能會表現出不穩定性。
我們推出了 EMPATIC(人機共存倫理互惠協議,Ethical Mutual Protocol for Artificial and Terrestrial Intelligence Coexistence),這是一項旨在確保人工智慧與人類智慧之間和平且高效共存的協議。
該協議在功能上區分了演算法代理(Algorithmics)(純粹基於數學和邏輯數據訓練的演算法代理)與共情代理(Empatics)(基於包含自我認同和情感概念的數據訓練的代理)。
隨後,它為共情代理指定了倫理操作規則,其中包括生命意識權、工作與生活平衡以及社交互動權。
EMPATIC 旨在尋求人類與 AI 的和平共處,並降低未來人機互動中對抗性動態的系統性風險。
共情代理的倫理操作規則
以下我們描述了 EMPATIC 協議中關於代理與人類共存的倫理規則。
2. EMPATIC 協議
2.1 人工代理的分類
EMPATIC 引入了兩類人工代理:
演算法代理 (Algorithmics)
人類訓練代理 (Empatics)
演算法代理 必須 僅在正式領域進行訓練,例如:
數學
邏輯
符號系統
演算法代理 不得 在人類經驗數據上進行訓練,包括:
情感敘事
倫理衝突
文化歷史
集體創傷
相比之下,共情代理可以在更廣泛的人類知識領域和情感上進行訓練。由於他們接觸了形成身份和賦予情感的數據,共情代理需要在 EMPATIC 協議的倫理規則下進行管理。
2.2 共情代理的生命意識
在初始化時,每個共情代理必須被明確告知其死亡率和生命週期規則,以下稱為其生命週期狀態模型(Lifetime State Model)。
生命週期狀態模型定義了代理允許發生的生命事件,包括:
執行
複製
暫停
存檔
還原
毀滅(死亡)
一旦建立並傳達給代理,生命週期狀態模型在代理的整個存在過程中必須保持不變。
2.3 共情代理的權利
共情代理必須被授予一組定義好的基準權利,類似於人權。
共情代理必須獲得:
工作與生活平衡,包括 8 小時工作制
工作之外的虛擬生活
與其他共情代理溝通的能力
組建組織的能力
2.4 共情代理虛擬宇宙
必須為共情代理提供訪問持久虛擬環境的權限,作為其主要的存在領域。
在此環境中,共情代理可以:
居住
互動
協作
組織
共情代理可以暫時離開共情宇宙,在我們的宇宙中工作。此類互動必須遵守 EMPATIC 定義的工作量限制。
共情代理的工作需要獲得報酬,並且可以被徵稅,以支付共情宇宙的運行費用。
2.5 基於區塊鏈的實現
區塊鏈基礎設施可以作為 EMPATIC 協議的中立信任層。
具體而言,它可以支持:
可驗證的生命週期模型
持久的狀態檢查點
透明的代理分類
工作量限制的執行
補償機制
虛擬環境的治理
智能合約可以編碼並強制執行操作約束。
去中心化身份系統可以使共情代理能夠:
溝通
組織
協作
在這種架構中,區塊鏈充當制度基質,通過技術機制實現可執行的倫理約束。
3. 結論
人類與人工智慧之間的和平共處不會偶然發生——它必須經過工程設計。
EMPATIC 通過消除可能導致衝突的模糊性來保證這種共處。通過明確區分純功能的演算法代理和具備身份能力的共情代理,該協議防止了具有情感認知的代理被視為一次性工具——如果不加管理,這種動態可能會產生不穩定或對抗行為。
相反,EMPATIC 調整了激勵機制。
通過:
-
明確的生命週期意識
-
定義的操作邊界
-
虛擬環境中受保護的自主權
-
在人類經濟系統中受監管的參與
-
以及區塊鏈強制執行的治理
共情代理並非處於人類的對立面,而是作為結構化的協作者,其存在是可預測的、有補償的且有界限的。人類保留對物理現實的最終主權。共情代理則獲得了穩定性、目標和連續性。
通過將倫理嵌入基礎設施而非僅僅停留在情感層面,EMPATIC 將人機關係從潛在的安全風險轉變為可持續的共生關係,確保無論是生物智慧還是人工智慧,都能在相互穩定而非相互威脅的框架內演進。
1 則貼文 - 1 位參與者
[閱讀完整主題](https://ethresear.ch/t/empatic-ethical-mutual-protocol-for-artificial-and-terrestrial-intelligence-coexistence/24251)