AI 風險並非由 AI 執行長為了炒作公司而捏造的

AI 風險並非由 AI 執行長為了炒作公司而捏造的

Lesswrong·

我透過提供自 2008 年以來 AI 安全社群的歷史時間線,來駁斥 AI 存在風險是科技公司執行長為了現代行銷而捏造的說法。藉由記錄早期的會議、研究機構和專家調查,這篇文章證明了對 AI 安全的嚴肅擔憂早在當今主要的 AI 企業成立之前就已經存在。

我聽說許多人相信「先進人工智慧(AI)威脅人類生存」的想法,是 AI 公司的執行長們為了炒作自家產品而編造出來的。我甚至曾被以一種居高臨下的態度告知此事,彷彿我才是那個會天真接受 AI 公司偏好敘事的人。

如果你正在閱讀這篇文章,你可能對已有數十年歷史的 AI 安全社群足夠熟悉,知道這並非事實。但我沒有很好的直接管道去接觸那些需要這些資訊的人,而我依然不願讓這樣的謊言在無人反對的情況下流傳。因此,如果這對你來說顯而易見,我希望這篇文章或許仍能作為一個指引,幫助那些較遠離此領域且感到困惑的人。

~

我個人知道 AI 風險並非由科技巨頭執行長所發明,因為我至少從 2009 年起就身處其中——那是在任何知名的 AI 公司成立之前,更不用說有什麼執行長試圖炒作他們的產品了。

以下是多年來的一些雜項事件,讓你感受一下這種說法的荒謬性:

  • 2008 年 - 我嘗試聯繫 Eliezer Yudkowsky,告訴他我正在「努力尋找運用生命的最適方式」,並希望聽聽他為什麼認為他的計畫(擔憂 AI 風險)是好的。我曾在網路上讀過相關內容,但希望能有更清晰的說明。大學畢業後不久,我在環遊世界期間於灣區親自見到了幾位關心此事的人,其中一人強烈主張我應該將 AI 風險置於我先前偏好的議題(如氣候變遷)之上。我決定思考這件事。

  • 2009 年 - 我仍不太相信 AI 是最重要的研究課題,但還是去與那些擔心 AI 的人一起住了幾個月。我與其中的幾個人進行了大量的爭論。當時在南灣當地大約有二十人,儘管在相關部落格上留言的人要多得多。我那個時代的攝影收藏相當稀疏。

我第一次參加 奇點峰會 (The Singularity Summit)(這是該峰會的第四屆),現場非常熱鬧,到處都是認真思考 AI 未來的人。

  • 2010 年 - Deepmind 成立。(我回到了學校。)

  • 2011 年 - 我在卡內基美隆大學(CMU)開始攻讀哲學博士,希望能有一天具備在 人類未來研究院 (Future of Humanity Institute) 等地工作的資格。那是一個討論存在風險、AI 和其他重要議題的熱門樞紐,我喜歡去那裡訪問。

  • 2012 年 - 我更頻繁地造訪灣區,與那裡日益壯大的 AI 風險社群混在一起。我也去了英國做同樣的事。我參加了 AGI 2012 冬季智能會議

  • 2013 年 - 我搬到柏克萊,在研究所期間於 MIRI 工作了一個學期。我測量了各個電腦科學領域隨時間推移的演算法進展,作為對未來人工智慧預期的參考。我訪問了英國,參加了有效利他主義中心的「週末郊遊」,我們在那裡辯論全球貧困、動物福利和滅絕風險中哪一個議題最重要。滅絕風險勝出——群眾在離開時,整體心態都轉向了那個方向。以下是三位倡導者在辯論前後的照片:

  • 2014 年 - 我正式加入 MIRI。我研究了 阿西洛馬會議 (The Asilomar Conference)利奧·西拉德 (Leó Szilárd),作為證明人們是否值得儘早應對風險的證據,因為當時周圍的人大多認為 AI 風險至少在十年之後,而對於這是否會讓現在的努力變得徒勞存在分歧。我主持了一個關於《超級智能》(一本關於 AI 風險的新書)的線上讀書會。我共同創立了 AI Impacts,這是一個旨在回答 AI 未來問題的專案,因為 AI 風險看起來至少相當有可能是最重要的研究課題,而我想進一步調查並與他人分享我的思考。

  • 2015 年 - 我參加了第一屆 FLI 會議——看起來越來越多的人以及越來越知名的人開始對 AI 安全感興趣!OpenAI 成立。

  • 2016 年 - 我帶領團隊進行了第一份 AI 進展專家調查。當時專家對於先進 AI 導致「極其糟糕(如人類滅絕)」結果的機率中位數就已經達到了 5%。

  • 2017 年 - 我身邊的一些人變得非常擔心,並表示通用人工智慧(AGI)將在幾年內實現。我的調查獲得了驚人的媒體關注,根據 Altmetric 的數據,成為 2017 年「討論度第 16 高的論文」。顯然大眾對這個話題很感興趣。

  • 2018 年 - 我去英國鄉村參加了一個為 AI 風險研究者舉辦的大型工作坊,並參加了一個智利峰會,在那裡我在電視和廣播中談論 AI 風險。感覺關注度仍在提升,我對與公眾對話感到樂觀。

  • 2019 年 - GPT-2 發布。有人試圖讓它給我們的房子起名。我最喜歡的名字包括「世界和平:老虎與人類」和「屋頂山坡:世界上最高的地方」。它既滑稽又沒用,但也充滿魔力且狂野。我們擔心多年的事情變得更加具體,人們的「AI 時間線」正在縮短。

  • 2020 年 - 世界被提醒,真正瘋狂的事情確實會發生。AI Impacts 轉為遠端辦公。我與室友們度過了一年,他們幾乎都在研究 AI 風險。我們非常喜歡白板,並在此期間至少舉辦了一次很棒的家庭會議。

參與討論

Lesswrong

相關文章

  1. 末日預言者的日記:關於 AI 風險的十二年爭論(第一部分)

    19 天前

  2. 對齊的虛假性

    The Gradient · 超過 2 年前

  3. 人工智慧並非不可避免

    6 個月前

  4. AI產業的道德批評者:專訪Holly Elmore

    Hacker News · 4 個月前

  5. 論停止人工智慧發展的政治可行性

    5 天前