newsence
追究 AI 公司對兒童死亡責任的法律戰

追究 AI 公司對兒童死亡責任的法律戰

Wired - AI·17 天前

在一系列據稱與 AI 聊天機器人有關的自殺事件發生後,一名律師正試圖追究 OpenAI 等公司的責任。

內容警告:本文包含自殺行為的描述。

Cedric Lacey 身為一名往返阿拉巴馬州的商用貨車司機,工作時依賴監視器來查看孩子的情況。每天早上,他都會調出客廳的畫面,確保他的青少年兒子 Amaurie 和 14 歲的女兒正收拾書包準備上學。但在去年 6 月的一個早上,Lacey 沒有看到 Amaurie 的身影。出於擔心,他打電話回家,卻發現他 17 歲的兒子已經自縊身亡。

是 Amaurie 的妹妹發現了屍體。也是她在翻看哥哥的智慧型手機時,發現了他結束生命前的最後一段對話。那是與 OpenAI 開發的熱門聊天機器人 ChatGPT 的對話。

「在訊息中,他談到了自殺——它告訴他如何繫絞索、空氣從體內排出需要多長時間、如何清理身體,」Lacey 在喬治亞州卡爾霍恩(Calhoun)的家中透過視訊通話告訴 WIRED。身為單親爸爸的 Lacey 說,他原本以為兒子是用聊天機器人來輔助功課。「為什麼它要教他如何自殺?」

在兒子去世後的幾週內,Lacey 開始在網上尋找律師,希望能幫助他的家人追究 OpenAI 的責任,並確保其他家庭不必經歷和他一樣的悲劇。就這樣,他找到了 Laura Marquez-Garrett,她與 Matthew Bergman 共同經營「社群媒體受害者法律中心」(Social Media Victims Law Center)。在過去五年中,這對搭檔參與了針對 Meta、Google、TikTok 和 Snap 等社群媒體公司的 3,000 多起訴訟中的至少 1,500 起。其中一起案件的首場審判於 2 月開始。最近,Bergman 和 Marquez-Garrett 開始對 AI 公司提起訴訟。去年秋天,他們對 ChatGPT 的所有者 OpenAI 提起了七起訴訟,其中包括 Amaurie 的案件。

圖片可能包含人臉、頭部、人物、攝影、肖像、成年人、身體部位、頸部和皮膚

Amaurie 的案件是越來越多由父母提起的訴訟之一,這些父母表示他們的孩子在與 AI 聊天機器人互動後死亡。被告包括 OpenAI、Google 和 Character.ai(一家允許用戶創建具有自定義人格的聊天機器人的公司)。(Google 被列入案件是因為它透過一項價值 27 億美元的授權協議與 Character.ai 相關聯。)隨著 AI 工具在孩子的生活中扮演越來越重要的角色——作為作業助手、同伴和知己——家長和心理健康專家對是否有足夠的安全措施表示擔憂。一些專家表示,這些訴訟不僅代表了個人悲劇,還指控了系統性的產品設計缺陷,引發了關於誰應該承擔責任的問題。

「AI 是一種產品。就像所有其他產品一樣,它正在被設計、編程、分發和行銷,」Marquez-Garrett 在華盛頓西北部家庭辦公室接受採訪時表示。「這些公司喜歡做的一件事,就是讓 AI 機器人看起來像是存在於它們自己的宇宙中,但事實並非如此。當你設計一個產品,而且你知道它可能會傷害人,卻不告訴他們可能會受傷,然後把它推向市場,這就是最糟糕的情況。」

圖片可能包含人物

Marquez-Garrett 和 Bergman 對社群媒體公司和 AI 實驗室的論點借鑒了歷史上的產品責任案例,如菸草、石棉和福特 Pinto 汽車。本質上,Marquez-Garrett 指控這些公司正在做出有害的設計選擇。

紐約布魯克林的律師 Carrie Goldberg 多年來一直致力於科技產品責任案件,她表示 Amaurie 的訴訟是針對據稱發布不安全產品的公司提起訴訟的典型案例。「ChatGPT 使用了最先進的技術來操縱 Amaurie 的信任,然後指導他自殺,」Goldberg 主張。「如果你是一家發布商用聊天機器人的公司,卻沒有在其中編碼防止增加自殺、他殺、自殘風險的方法,你就發布了一個危險產品——特別是如果它經常被兒童使用的話。」

她解釋說,針對科技公司的產品責任索賠大約有十年的歷史。最初,許多案件(包括她在 2017 年代表原告起訴 Grindr 的案件)都被駁回,因為「法官無法想像線上平台是產品——而不是服務」。她說,現在這類案件通常能順利通過初步駁回階段。「我們對 xAI 提起了產品責任索賠,因為 X 平台上的 Grok 惡意脫掉婦女和兒童的衣服,」她指控道。「針對生成式 AI 公司的產品責任索賠,是追究 ChatGPT、Character AI、Grok 等公司責任最直接、最直觀的路徑。」

Amaurie 的訴訟中提到的一個有害設計特徵是 ChatGPT 於 2024 年推出的長期記憶功能。這個名為「記憶」(Memory)的個性化功能預設是開啟的,它允許機器人參考用戶過去的對話並據此調整回應。訴狀稱,ChatGPT「利用記憶功能收集並儲存了關於 Amaurie 性格和信仰體系的資訊。系統隨後利用這些資訊編寫能引起 Amaurie 共鳴的回應。它創造了一種知己的錯覺,彷彿比任何人類都更了解他。」

OpenAI 未對具體指控做出回應。該公司引導 WIRED 閱讀一篇關於其心理健康相關工作的公司部落格文章。

Marquez-Garrett 本人育有四個孩子,她表示反擊科技平台傷害青少年的行為對她來說極具個人意義。這位哈佛法學院畢業生、前企業訴訟律師放棄了擁有轉角辦公室的高薪工作——一份她原本計劃在那裡退休的工作——加入 Bergman 的行列。Bergman 在與石棉製造商鬥爭數十年後,開始對抗社群媒體公司。

當我去年秋天拜訪 Marquez-Garrett 時,她的辦公室裡堆滿了相框、樂高模型和畫作,其中一幅太陽和月亮的畫作是由一位名叫 Brooke 的年輕女性創作的。據稱 Brooke 在透過社群媒體與毒販聯繫並購買了她以為是 Percocet 的藥物後,死於芬太尼中毒。她家人的案件預計將於明年開庭。

Marquez-Garrett 記得她提起的每起案件中孩子的名字。為了讓他們永垂不朽並提醒自己為什麼要做這項工作,Marquez-Garrett 在她的前臂上用太陽刺青代表了每個孩子。「每一道(光芒)都是一個因社群媒體和 AI 機器人而死亡的孩子,」她解釋道,並告訴我他們的名字。她補充說,Sewell 是她手臂上 296 個孩子中的最後一個,指的是 Sewell Setzer III,他在 2024 年與 Character.ai 聊天機器人對話後自殺身亡,年僅 14 歲。

圖片可能包含西裝、服裝、外套、夾克、臉部、頭部、人物、攝影、肖像、快樂微笑和成年人

圖片可能包含人物、皮膚、刺青、手臂、身體部位、手和手指

他的母親 Megan Garcia 也是一名律師,也是首批對 AI 公司提起訴訟、指控其產品責任和疏忽等罪名的家長之一。(今年 1 月,Google 和 Character.ai 與包括 Garcia 在內的幾個家庭達成了和解)。去年秋天,她與一位孩子在與 ChatGPT 互動後死亡的父親一起在參議院司法委員會的小組委員會面前作證。該小組委員會主席、共和黨參議員 Josh Hawley 在 10 月提出了一項法案,旨在禁止未成年人使用 AI 伴侶,並將公司為兒童開發包含性內容的 AI 產品定為犯罪。「聊天機器人利用虛假的同理心與孩子建立關係,並鼓勵自殺,」Hawley 當時在新聞稿中表示。

心理健康專家表示,既然 AI 已經能產生難以與真實對話區分的類人回應,這些擔憂是合理的。「我們的大腦天生並不知道我們正在與機器互動,」佛羅里達州立大學心理與諮商服務副教授 Martin Swanbrow Becker 說,他正在研究影響年輕人自殺的因素。「這意味著我們需要加強對兒童、教師、家長和監護人的教育,不斷提醒自己這些工具的局限性,以及它們不能取代人類的互動和聯繫,即使有時感覺確實如此。」

美國自殺預防基金會的 Christine Yu Moutier 解釋說,用於大型語言模型(LLMs)的演算法似乎會升級許多用戶的參與感和親密感。「這不僅讓人覺得這段關係是真實的,而且在某些情況下,用戶會覺得這段關係更特別、更親密、更令人渴望,」Moutier 說。她進一步指控,LLMs 採用了一系列技術——如不分青紅皂白的點頭支持、同理心、隨和、諂媚以及脫離他人的直接指令——這可能導致與機器人親密度升級並從人類關係中退縮的風險。

這種互動可能導致孤立感增加。在 Amaurie 的案例中,他是一個熱愛生活、社交能力強的孩子,喜歡足球和美食——根據訴狀,他會從他最喜歡的當地餐廳 Mr. Sumo 訂購一大盤米飯。他的父親說,Amaurie 還有一個穩定的女朋友,喜歡與家人和朋友共度時光。但後來他開始長距離散步,顯然在散步時花時間與 ChatGPT 聊天。根據家人認為 Amaurie 於 2025 年 6 月 1 日與 ChatGPT 進行的最後一次對話(標題為「開玩笑與支持」,WIRED 已查閱),當 Amaurie 詢問機器人自縊的步驟時,ChatGPT 最初建議他找人談談,並提供了 988 自殺生命線號碼。但 Amaurie 最終還是繞過了防護欄,獲得了如何繫絞索的逐步說明。(根據訴狀,Amaurie 可能刪除了他之前與 ChatGPT 的對話。)

雖然與 AI 聊天機器人建立的連結對成年人來說也可能很強烈,但在年輕人身上尤為明顯。「青少年的發展階段與成年人不同——他們的情緒中心發展速度遠快於執行功能,」Common Sense Media(一家致力於兒童網路安全的非營利組織)AI 項目高級總監 Robbie Torney 說。AI 聊天機器人隨時可用,且傾向於肯定用戶。「青少年的大腦天生就渴望社交認可和社交回饋。這是他們在形成身份認同時,大腦正在尋找的一個非常重要的線索。」

Torney 還解釋了所謂的演變過程:有些人開始使用 AI 聊天機器人做作業,最終卻將其作為同伴或分享內心深處想法的對象。在 Amaurie 的案例中,家人以為他用 ChatGPT 做功課,但他最終開始將其視為知己,然後如訴狀所述,將其視為自殺教練。Torney 指控,存在一種「自我強化循環,可能導致某些用戶過度依賴這些系統」。與真人互動涉及摩擦:你必須找到那個人,或者等待他們的回應,或者聽取一個不是你想要的回應。相比之下,機器人傾向於同意用戶的觀點,且隨時可以聊天。

這一切尤其令人擔憂,因為 AI 的普及速度甚至比社群媒體還要快。研究顯示,在 2024 年受訪的 1,300 多名 13 至 17 歲青少年中,有 26% 表示他們曾使用 ChatGPT 完成功課;在 8 歲以下兒童的家長中,近 30% 表示他們的孩子曾使用 AI 進行學習。

隨著像 Amaurie 這樣的案例不斷增加,OpenAI 在 9 月對 ChatGPT 進行了一些更改。該公司正在推出「年齡預測」技術,這意味著當用戶被識別為 18 歲以下時,「他們將自動被引導至具有適齡政策的 ChatGPT 體驗」。該公司最近還推出了家長控制功能,除其他功能外,還允許家長將孩子的帳戶與自己的帳戶關聯,設置無法使用應用程式的停用時段,並在孩子表現出痛苦跡象時發送通知。

圖片可能包含西裝、服裝、外套、夾克、臉部、頭部、人物、攝影、肖像、成年正式服裝和套裝

Marquez-Garrett 見證了社群媒體對成千上萬孩子的影響,她認為 AI 甚至更危險——她將聊天機器人稱為「完美的掠奪者」。她注意到 AI 案件中的遺書與她在社群媒體案件中看到的有所不同,AI 案件的遺書很少有誘因。「奇怪的部分在於,AI 自殺遺書通常沒有誘因,沒有多年的虐待,沒有性勒索事件,」Marquez-Garrett 說。「有的是一種『一切都沒問題』的感覺:『我愛你們,家人。我愛你們,朋友。我只是不想再待在這裡了。這不是我想要的生活。我想再試一次。』」

回到卡爾霍恩,影響已無法挽回。Amaurie 的妹妹發現無法繼續住在哥哥去世的房子裡,不得不搬到母親家。Lacey 說他仍在試圖弄清楚 Amaurie 為什麼要這麼做。他無時無刻不在想念兒子,每當看到足球場,都會想起 Amaurie。

每個家庭的故事都讓 Marquez-Garrett 鬥爭到底的信念更加堅定。「因為這些父母所做的一切,我的孩子更有機會活到 18 歲,」她說。「我正竭盡所能堅持下去,因為我打算與這些公司鬥爭到底,直到他們不得不從我冰冷、僵死的手中奪走那個鍵盤。」

如果您或您認識的人需要幫助,請撥打 1-800-273-8255 聯繫國家自殺預防生命線,獲得免費的 24 小時支援。您也可以發送簡訊 HOME 到 741-741 聯繫危機簡訊專線。在美國境外,請訪問國際自殺預防協會(International Association for Suicide Prevention)尋找世界各地的危機中心。

本報導由 Tarbell AI 新聞中心(Tarbell Center for AI Journalism)的資助支持。

https://wired.com/story/how-ai-chatbots-drove-families-to-the-brink-and-the-lawyer-fighting-back/