不論X為何,若您同意,仍可簽署超級智能聲明
無論你的具體動機或所屬立場為何,只要你同意該聲明的核心內容,就應該直接簽署《超級人工智慧聲明》,並可以透過簡短的個人聲明來澄清你的具體觀點。
TL;DR:如果你同意這份聲明,你現在仍然可以直接簽署。這依然具有重要意義,你可以在名字旁邊透過支持聲明(600 字元以內)來闡明你的立場,也可以在 LW 或其他地方說明你完整的實際觀點。
無論 X 為何,你依然可以直接簽署。(針對 X 的各種情況...)
X = 無論你是否同意我的觀點,即安全研究人員有義務公開表達立場。如果你認同這份聲明,且你所在的實驗室已有同事簽署,請考慮到你的簽署能降低他們因簽署而付出的個人代價。
X = 無論你是否同意簽署一份更詳細、更長、包含更多大眾共識內容的聲明。事實上,針對我過去文章中試圖解決的許多具體原因,https://superintelligence-statement.org/ 似乎已經回應了這些疑慮。同時請記住,如果你擔心人們會產生誤解,你也可以告訴我們你簽署的原因(你有 600 字元的空間)。
X = 無論你屬於哪一個「陣營」。你可以簽署後繼續致力於安全地開發超級智能,也可以簽署後繼續致力於讓世界不建造不安全的超級智能。
X = 無論你是否認為 LW 上確實存在這樣的陣營。你可以一邊擔心兩極分化一邊簽署;也可以一邊擔心混淆性的結盟一邊簽署。
X = 無論你認為我秘密傳播這份聲明數月之舉很愚蠢,還是欽佩這種「大腦星系級」的隱密行動。
X = 無論你是為已經有 3.3 萬多人簽署感到高興,還是為錯過發布前簽署的機會感到遺憾。重要的一點是,人們仍在持續簽署,當它達到未來的里程碑(例如 10 萬人以上簽署)時,有多少研究人員參與簽署將至關重要^([1])。事實上,透過我們選擇如何實踐對這份聲明的認同,我們將決定會達成多少門檻以及多快達成。
具體來說,在簽署後,你可以添加一段支持聲明,然後將其發布在人們能看到的地方(例如 LW、Twitter 等)。
支持聲明範例:
以下是一些支持聲明,首先是我的:
除非達成國際協議,否則在第一個超級智能被開發出來時,人類很可能還不具備構建安全超級智能的能力。因此,現階段追求超級智能極有可能導致人類永久喪失權力或滅絕。我支持達成一項國際協議,以確保在能夠安全實現之前,不開發超級智能。
這是 Nate 的:
邁向超級智能的競賽是自殺式的。進步不應受制於公眾的否決權,但技術專家也不應玩弄毀滅。僅靠科學共識是不夠的(就像 1100 年煉金術士的共識不足以保證長生不老藥一樣)。讓超級智能造福人類的科學遠未成熟。雖然存在時間壓力,現實可能要求有認知的領導者採取大膽行動(無需公眾認可),但公眾反對這場競賽是正確的,在這種情況下對技術專家的共識保持警惕也是正確的。
這是 Tsvi 的:
人類缺乏在不殺死所有人的情況下構建超人類 AI 所需的技術理解。應透過法律、國際條約、社會規範、職業規則以及提供獲得預期收益的替代途徑,來停止構建超人類 AI 的努力。我曾猶豫是否簽署這份聲明,因為它聽起來像是只要有某些科學共識和公眾認可,構建超人類 AI 就是可以接受的。我認為超人類 AI 太過危險,即使在許多這類情境下也不值得冒險。但從字面上看,我技術性地同意這份聲明。
這是 Kaarel 的^([2]):
如果我們允許繼續追求通用人工智能(AGI),人類時代將會終結,人類和人類機構可能會變得微不足道且無能為力,甚至可能直接滅絕。
即使你認為不開發超級智能將是最大的悲劇,你依然可以直接簽署^([3])並添加一段類似這樣的支持聲明:
我認為不開發超級智能將是一場巨大的悲劇,但我認為目前的競賽對非常糟糕的未來構成了重大風險,我更希望我們能暫停,直到我們能構建安全的超級智能。
即使你是一位不妥協的自由意志主義者,你依然可以直接簽署並添加一段類似這樣的支持聲明:
作為一名自由意志主義者,我通常不同意等待公眾批准,但讓任何人開發出能在沒有至少大部分自由意志主義者參與的情況下,單方面控制未來的技術,這違背了我的自由意志主義價值觀。
即使你認為風險很小但值得採取行動,你也可以直接簽署並添加支持聲明:
即使只有 10-25% 的滅絕機率也太高了,讓我們想辦法獲得更好的勝算。
你依然可以直接簽署
如果你同意這份聲明,你現在仍然可以直接簽署 https://superintelligence-statement.org/。這依然具有重要意義,你可以在名字旁邊透過支持聲明(600 字元以內)來澄清你同意的方式/原因,也可以在 LW 或其他地方說明你完整的實際觀點。
如果你不同意這份聲明,可以在評論中說明原因。
相關文章