關於超級智能的聲明 - FLI 公開信

Lesswrong·

我們呼籲禁止開發超級人工智慧,直到科學界對其安全與可控性達成廣泛共識,並獲得公眾的強力支持。

我們呼籲禁止開發超人工智慧(superintelligence),除非滿足以下條件,否則不應解除禁令:

  • 對於其開發過程的安全性和可控性已達成廣泛的科學共識,且

  • 獲得強大的公眾認同。請在主網站Eko 簽署^([1])。

  • ^(^)後者似乎審核較不嚴格或更注重隱私保護,且會被計入總人數中?

Lesswrong

相關文章

  1. 新聲明呼籲暫停開發超級智能

    6 個月前

  2. 簽署禁止超級智能聲明的理由(+給猶豫不決者的常見問題解答)

    6 個月前

  3. 不論X為何,若您同意,仍可簽署超級智能聲明

    6 個月前

  4. 諾貝爾獎得主及其他領袖呼籲禁止AI超級智能

    Hacker News · 6 個月前

  5. 唯有在全球禁止人工超級智能的情況下,才可能打造出安全的人工超級智能

    7 天前