
OpenAI 支持旨在限制 AI 引發大規模死亡或財務災難責任的法案
這家 ChatGPT 製造商在聽證會上支持一項伊利諾州法案,該法案將限制 AI 實驗室在產品造成「關鍵損害」時應承擔的責任,即便是在涉及大規模死亡或重大財務災難的情況下。
OpenAI 正全力支持一項伊利諾州法案,該法案將在 AI 模型被用於造成嚴重社會危害(如導致 100 人或以上死亡或重傷,或造成至少 10 億美元的財產損失)的情況下,免除 AI 實驗室的法律責任。
此舉似乎標誌著 OpenAI 立法策略的轉變。在此之前,OpenAI 大多採取防禦姿態,反對可能讓 AI 實驗室對其技術傷害承擔責任的法案。多位 AI 政策專家告訴《連線》(WIRED),SB 3444 法案——這可能為該行業樹立新標準——比 OpenAI 過去支持的法案更為極端。
這項名為 SB 3444 的法案規定,只要前沿 AI 開發者並非故意或魯莽地導致此類事件,且已在其網站上發布安全性、保密性和透明度報告,即可免除其前沿模型所造成「關鍵損害」(critical harms)的責任。該法案將前沿模型定義為任何訓練計算成本超過 1 億美元的 AI 模型,這可能適用於美國最大的 AI 實驗室,如 OpenAI、Google、xAI、Anthropic 和 Meta。
「我們支持這類方案,因為它們專注於最重要的事情:在降低最先進 AI 系統帶來嚴重傷害風險的同時,仍允許這項技術落入伊利諾州的人民和企業(無論大小)手中,」OpenAI 發言人 Jamie Radice 在一份電子郵件聲明中表示。「這也有助於避免各州規則零散化,並朝向更清晰、更一致的國家標準邁進。」
在「關鍵損害」的定義下,該法案列舉了 AI 行業普遍關注的幾個領域,例如惡意行為者利用 AI 製造化學、生物、放射性或核子武器。如果 AI 模型自行產生的行為,在由人類實施時構成刑事犯罪並導致上述極端後果,也屬於關鍵損害。根據 SB 3444,如果 AI 模型實施了任何此類行為,只要模型背後的 AI 實驗室並非故意且已發布報告,則可能不承擔責任。
美國聯邦和州立法機構尚未通過任何專門法律,來確定像 OpenAI 這樣的 AI 模型開發者是否應對其技術造成的這類傷害負責。但隨著 AI 實驗室不斷發布功能更強大、並帶來新型安全與網路安全挑戰的 AI 模型(如 Anthropic 的 Claude Mythos),這些問題顯得日益具有預見性。
OpenAI 全球事務團隊成員 Caitlin Niedermeyer 在支持 SB 3444 的證詞中,也主張建立 AI 監管的聯邦框架。Niedermeyer 的觀點與川普政府對州級 AI 安全法的打壓一致,聲稱避免「不一致的州級要求所形成的碎片化,這可能會產生摩擦而無法實質提升安全性」至關重要。這也符合矽谷近年來的普遍觀點,即 AI 立法絕不能阻礙美國在全球 AI 競賽中的地位。雖然 SB 3444 本身是一項州級安全法,但 Niedermeyer 認為,如果這些法律能「強化與聯邦體系協調一致的路徑」,它們就是有效的。
「在 OpenAI,我們認為前沿監管的北極星應該是:以一種同時能保持美國創新領導地位的方式,安全地部署最先進的模型,」Niedermeyer 說。
Secure AI 專案的政策總監 Scott Wisor 告訴《連線》,考慮到伊利諾州在嚴格監管技術方面的名聲,他認為這項法案通過的機會微乎其微。「我們對伊利諾州民眾進行了民調,詢問他們是否認為 AI 公司應該免除責任,90% 的人表示反對。現有的 AI 公司沒有理由獲得責任減免,」Wisor 說。
他指出,伊利諾州的立法者也提交了增加 AI 模型開發者責任的法案。去年 8 月,該州成為全美第一個通過立法限制在心理健康服務中使用 AI 的州。伊利諾州在監管生物識別數據收集方面也走在前列,於 2008 年通過了《生物識別信息隱私法》。
雖然 SB 3444 聚焦於大規模傷亡事件和重大金融災難,但 AI 實驗室也面臨著其 AI 模型在個人層面可能造成傷害的問題。在過去一年中,幾名據稱因與 ChatGPT 建立不健康關係而自殺身亡的兒童家屬已對 OpenAI 提起訴訟。
Niedermeyer 在證詞中倡導的聯邦 AI 立法對國會來說仍是一個難以捉摸的目標。儘管川普政府已發布行政命令並公布框架,試圖催生某些聯邦 AI 立法,但關於實際通過此類措施的談判似乎毫無進展。在缺乏聯邦指導的情況下,包括加州和紐約州在內的各州已通過了 SB 53 和《Raise 法案》等法案,要求 AI 模型開發者提交安全和透明度報告。
在 AI 熱潮爆發多年後,如果 AI 模型導致災難性事件會發生什麼,在法律上仍是一個懸而未決的問題。