人類尊嚴:一篇評論
這篇文章評論了一份關於人類尊嚴的未來宣言,探討了身體完整性與心理隱私等原則,以確保在人工智慧主導的世界中,人類的自主權與繁榮仍是核心。我在讚賞這些理想化目標的同時,也對其實際執行方式以及潛在的法律或倫理模糊性提出了批判性的質疑。
我擁有一份簡短的文件,據稱是來自未來的宣言。
這顯然很荒謬,但先別管那個。它涵蓋了一些有趣的領域,且後半部分相當有力。讓我們來討論一下。
AI 時代的人類尊嚴原則
人類正接近一個門檻。人工智慧的發展承諾了非凡的豐饒——物質貧困的終結、從疾病中解放、以及能將人類潛力放大到超越現有想像的工具。但它也挑戰了人類生存與意義的基本假設。當機器在所有領域都超越我們時,我們將在哪裡找到目標?當我們的選擇可以被我們不理解的系統預測和塑造時,我們的自主性(agency)將何去何從?
當我們跨越門檻進入一個陌生的新世界時,這個時刻要求我們明確表達人類生活的哪些方面必須受到保護。
我覺得這些主題會引起很多人的共鳴。但語言風格呢?它感覺甚至比《世界人權宣言》還要宏大/華麗。個人而言我挺喜歡的:我覺得這個話題值得擁有這種莊重感,或類似的東西。但我可以想像這會讓一些人反感。
透過制定明確的原則,我們希望引導 AI 的發展走向增強而非侵蝕人類尊嚴的未來。透過保護對人類繁榮至關重要的事物,我們或許能為我們的選擇創造空間,使其受智慧而非恐懼的引導。透過建立共同的希望,我們可以為了共同目標結盟。
我們並不尋求主宰明天的形狀。我們只求確保無論出現什麼樣的未來,都能保留讓人類有尊嚴、有意義且擁有真實選擇權的生活條件。(這些原則聚焦於人類——並非因為我們聲稱優於所有可能的意識體,而是因為人類尊嚴是我們能以清晰和信念去談論的事物。)
更多美好的理想主義情緒。括號裡的話是不是有點防禦性?讀起來像是既不想疏遠超人類主義辯論的任何一方。但也許這是正確的決定——很多內容是每個人都能認同的,所以沒必要挑起爭端。
我們邀請您加入我們,共同完善、傳播並維護這些原則。未來將由許多雙手和許多願景共同塑造。齊心協力,我們可以確保在奔向非凡明天的匆忙中,我們不會與今日使我們成為人的特質脫節。
激勵性的文本受益於明確的要求。這裡的行動呼籲被埋在中間,而且相當模糊。目前還不清楚什麼樣的表達會更好。這是否跡象顯示它還沒準備好成為一份宣言?
原則內容
個人完整性(Integrity of Person)
-
身體完整性:每個人對自己的身體擁有基本權利。未經自由且知情的同意(在可以合理尋求同意的情況下),不得進行任何改動或干預。
-
精神完整性:人類心智應保持神聖不可侵犯,免受未經同意的思想、記憶或心理過程的改動或操縱。
-
認識論完整性:每個人都有權基於真相而非欺騙來形成信念。與人類互動的 AI 系統不得透過欺騙手段扭曲現實或操縱理解。
-
認知隱私:心理過程、思想和內心體驗應保持私密,除非自願分享。不得透過任何技術手段對心理狀態進行監控或詳細推斷,除非獲得知情同意。
-
個人財產:每個人保留對構成自我延伸之財產的權利——包括實體財物、數位資產和創意作品。未經同意和公平交換,這些財產不得被徵用或破壞。
這裡似乎在暗示某種元層級(meta-level)的原則。類似於「沒有人可以干涉我們每個人是誰」。
這很容易產生共鳴,如果不仔細審視,我喜歡這些單獨的要點。但當我更仔細地思考時,我開始擔心 (A) 它們在一些困難問題上採取了拖延戰術,以及 (B) 在某些情況下,它們可能會有令人驚訝的結果。
例如:
- 原則 1 是否意味著墮胎權?還是因為胎兒的身體完整性而沒有墮胎權?如果技術能讓人在體外培育胚胎,這個問題或許會變得沒那麼棘手,但原則中完全沒提到這點還是感覺怪怪的。
- 原則中顯著缺失的是對生育權的討論。這是否隱含在身體完整性的保護之下?還是這是有意的遺漏,因為作者知道人口指數級增長(特別是如果某些次文化選擇快速增長)將不可避免地導致馬爾薩斯陷阱,從而削弱其他一些原則的目的?
- 原則 3 是否意味著 AI 系統不被允許玩撲克牌或欺騙性遊戲?作為劃定界限的地方,這顯然沒有錯,但確實有違直覺!
- 「認知隱私」這件事在我初讀時似乎很理想,但它是否限制了人們使用技術輔助思考的自由?也許這應該是關於數據收集方面,而非推斷方面?
- 擁有「構成自我延伸的財產」是什麼意思?我明白這涵蓋了像衣服之類的東西。但它是否涵蓋了兆萬富翁的所有資產?這是否意味著他們不能被徵稅?(想必這不是初衷?)
福祉(Wellbeing)
-
物質安全:每個人都有權擁有一個能保持其安全的環境。在一個物質極大豐富的世界裡,這包括不僅足以生存,而且足以讓人類繁榮的資源。
-
健康:普及醫療保健、心理健康支持以及減輕可預防痛苦的技術。
-
資訊與教育:獲得知識、學習機會以及理解和應對 AI 轉型世界所需的資訊工具。不應有人被排除在認知公地(cognitive commons)之外。
-
連結與社群:擁有真實關係和成為人類社群成員的權利。這包括保護真實人際互動的空間,以及支持創造意義的社會紐帶。
也許我還沒完全理解其中的複雜性,但這些看起來更直接。原則 6 和 7 明確了所有這些原則目前至少必須是願景式的。但如果 AI 發展順利,也許為每個人提供這些資源的成本很低,那麼保證這些權利就有意義了。(也許有些人會反對這點,認為這是社會主義?我不確定我真的相信這種說法——當安全網足夠便宜時,幾乎每個人都喜歡它。)
原則 8 很有趣,特別是它與原則 3(某種程度上還有原則 2 和 4)的交集。這產生的淨效果似乎是有效地取締了誤導資訊,至少是那種可能有效的類型。一方面——太棒了!這似乎是理想的(如果能實現的話),我以前也寫過 AI 技術如何促成新的、更好的平衡。另一方面,我們可能應該對其實際運作的細節感到緊張。如果保護人們認識論的系統被某些特定利益集團控制,可能就沒有好的方法可以逃脫。
原則 9 聽起來不錯,但我不確定它的實際含義。
自主性與能動性(Autonomy & Agency)
-
基本自由:傳統自由保持神聖不可侵犯:免於不必要拘留的自由、行動自由、言論與通訊自由、集會與結社自由。
-
有意義的選擇:關於個人生活的決定必須產生實際後果。人類的能動性要求我們的選擇能真實地塑造結果,而不僅僅是在 AI 系統決定結果時提供一種控制的錯覺。
-
技術自決:每個人和社群都可以選擇自己在技術整合光譜上的位置——從對所使用的技術倒退時鐘,到擁抱激進的增強。
我這裡的第一個想法是「讓專制國家同意原則 10 現實嗎?」。我想「不必要」這個詞提供了迴旋餘地。但隨著技術能力的增強,剝奪人們任何自由的需求可能會減少——例如,你也許可以把某人從監獄釋放,但通過足夠嚴密的監控,讓他們永遠無法再次犯罪。我想這對專制國家和民主國家來說都是一樣的。
有意義的選擇聽起來也不錯,但很模糊。如果將其理解為指導原則而非硬性規定,似乎也行。(想必這也是看待原則 9 的正確方式——或許所有原則都是如此。)
最後一項原則有一種奇特的張力。我們能同時給予每個人和每個社群這種自由選擇權嗎?想必這個謎題的答案是,人們可以選擇任何他們想要的,但某些選擇與留在某些社群是不相容的。這並不完全令人舒服,但這可能是目前最好的選擇。
退一步整體審視這份文件:
我認為這是一個有希望的方向。如果我聽說未來已經為這些原則建立了廣泛的支持,我會感到更安心。我想很多人也會有類似的感覺?
關鍵特徵在於,這是關於保障某些最低限度的權利。維護這些權利的成本最終可能會非常低。相比之下,它將「如何利用宇宙」這個更大的問題留給了我們未來(希望是更明智)的自己。
這種極簡主義應該會使其比那些試圖對「應該發生什麼」持有更全面見解的方案更少爭議。個人或組織可能會承諾遵守這類原則,而不會承諾任何更全面的立場,因為擔心出錯。那些在許多事情上爭論不休的不同群體,或許仍能在這裡找到共鳴。
相關文章