提醒:道德問題仍未解決

Lesswrong·

道德本質上仍是一個尚未解決且不一致的問題,這對人工智慧對齊構成了重大挑戰,因為我們缺乏一個可供遵循的普世框架。我們應該優先研究元倫理學並採取分散式治理來管理這些倫理風險,而非做出單方面的決定。

這是一個你可以自己玩,或與他人一起玩的遊戲:

a) 你必須決定一個可以向任何人詳細解釋的道德框架。

b) 它將於明天在全球實施。

c) 明天,地球上的每一個人,包括你和你認識的每個人,其生活都將隨機與他人交換。

這意味著你是在無知之幕下運作。你應該確保你所決定的道德規範,在生效後無論你是誰,都是有益的。

多人模式:第一個說服所有其他玩家的人獲勝。

單人模式:如果你獨自玩,你只需要說服你自己。

祝你好運!

道德尚未被解決

讓我換個方式來說:你媽媽有沒有告訴過你要做個好人?你是否曾覺得自己有時未能完成這項任務?有嗎?

為你辯護一下,我懷疑從來沒有人確切地告訴過你什麼是好人,或者你應該做什麼才能成為好人。

道德是一個著名的未解之謎,意思是指我們沒有任何完整且一致、且每個人都能認同的倫理框架。它甚至可能是無法解決的。

我們一開始也沒有一套被普遍接受的道德準則。

這裡的一個重要見解是,爭議往往最終集中在規則應該適用於「誰」身上。

例如,如果你說每個人都應該享有平等的自由權,問題就在於:誰是「每個人」?

如果你說「所有的人(persons)」,你就必須定義什麼是「人」。昏迷中的人類算嗎?大象算嗎?複雜的 AI 算嗎?你如何劃定界線?

而如果你開始對不同的「人」採用不同的規則,那麼你擁有的就不是一個一致且完整的框架,而是一個拼湊而成的規則,就像我們目前混亂的司法系統一樣。

我們對元倫理學(metaethics)也不甚了解。

以下是關於目前實際情況的兩個事實:

a) 我們目前處於一個想要和相信不同事物的階段,其中一些事物在根本上是相互矛盾的。

記住這一點很重要。我們都是主觀的代理人,擁有各自的本體論集合和各自的主觀議程。

b) 我們在政治和技術上花在研究倫理和道德問題上的時間非常少。

對 AI 的影響

這對 AI 的未來有著巨大的影響。

首先,這意味著沒有一個普遍一致的框架(且不需要不斷手動更新)可以放入 AI 中。

至少沒有一個是每個人,甚至大多數人,都會在道德上認同的框架。

如果你認為我錯了,我挑戰你告訴我們那個框架會是什麼。

因此,當人們談論解決「對齊」(alignment)問題時,我們必須問:對齊什麼?為了誰?

其次,同樣的問題也適用於任何負責 AI 的負責人。他們應該採取什麼樣的道德觀?

這是一個開放式問題。

這些是我支持分布式 AI 治理的關鍵原因。這就像民主:它本身有缺陷,但至少它分散了風險。更多人應該有發言權。不應有單方面的決定。

對齊應聚焦於元倫理學

至於對齊,我屬於那些認為理論構建者現在應該投入認真精力研究元倫理學的人。

道德與本體論和認識論有著內在的聯繫,與我們對這個世界和現實本身的理解息息相關。

考慮這個想法:解決道德問題可能需要科學進步到某種程度,即我們不需要再發現任何根本性的新事物,達到基礎經驗研究某種程度上已經完成的水平。

這意味著,在一個我們不再改變宇宙物理模型、僅對其進行微調的本體論中工作。一個我們已經調和了主體與客體的水平。

邊註 1:對於 AI 問題,道德現實主義是否正確往往並不重要,無論如何,我們目前面臨的問題看起來都是一樣的。我們不應該糾結於道德現實主義。

邊註 2:隨著我們對倫理學理解的演變,未來的 AI 開發者與現在的開發者之間可能存在根本性的理解鴻溝,就像宗教原教旨主義者與其他擁有更複雜道德信仰的宗教派別之間已經存在的根本鴻溝一樣。

這是另一個主張先研究元倫理學,後研究 AI 的論點。

由於這很可能不會發生,我會認為這間接地成為了一個支持保持 AI 狹義化並由人類控制(人機協同,human-in-the-loop)的論點。

這本身或許不是一個非常強有力的論點,但終究是一個論點。這樣一來,道德問題就像我們一樣被分而治之。希望有朝一日,能被克服。

Lesswrong

相關文章

  1. AI對齊與哲學能力之間的衝突

    4 個月前

  2. 對齊美德

    2 個月前

  3. 父母悖論:人工智慧、倫理與機器道德的局限性

    Hacker News · 大約 2 個月前

  4. 我曾試圖使其更易理解的問題

    5 個月前

  5. 打造具備類人哲學思辨能力的人工智慧

    3 個月前