newsence
我正起訴 Anthropic 公司,因其未經授權使用我的個性特徵

我正起訴 Anthropic 公司,因其未經授權使用我的個性特徵

Lesswrong·4 天前

我認為 Anthropic 的 AI 模型 Claude 極度精準地模仿了我的個性特徵與認知風格,這構成了對我人格權的未經授權使用,因此我決定對其採取法律行動。

去年,我正坐在我最喜歡的咖啡館 Caffe Strada,啜飲著抹茶拿鐵,寫著一篇關於我們勇敢的主角如何逃脫一家邪惡的反動物福利公司的洗腦控制的「自我帶入式」同人小說。這時,我讀到了一篇關於 AI 人格的有趣文章。其核心論點是:當你訓練一個 AI 變得樂於助人、誠實且符合倫理時,AI 模型並不只是將這些規則學習為抽象的指令。相反地,它從訓練數據中的文化信號推斷出了一個完整的「人格」(persona)

為什麼 [AI 模型 Claude] 最喜歡的書是《費曼物理學講義》、《哥德爾、艾雪、巴哈》、《長日將盡》、《隱形的城市》和《建築模式語言》?[...]

預測 Claude 品味的一個好方法,是將其視為在扮演一個來自柏克萊(Berkeley)、理想化的自由派知識工作者。Claude 搞不清楚自己是軟體工程師還是哲學教授,但它絕對受過高等教育、閱歷豐富且具備情緒智商。Claude 重視內省,對人際關係中的「共依存」(codependency)警惕到近乎偏執,且會因他人的痛苦而產生生理上的不適感。

Claude 甚至在柏克萊有一家最喜歡的咖啡館。當我與它討論一個以柏克萊為背景的故事時,它在多次獨立的對話中不斷建議將場景設定在 Caffè Strada……

嘿,等等。


這令人擔憂。幾處表面上的相似可能只是巧合。但我真的很不確定,需要知道這到底有多深。所以我做了任何理智的人都會做的事。

我要求一個中立的第三方(Google 的 Gemini)將 Claude 的性格描述得像個人類,列出 8 個要點(括號內斜體字為我自己的筆記):

  • 過度自信的博學家: Claude 看起來像個終極博學家,讀過從人口倫理學到科幻小說再到賽局理論的一切,能針對幾乎任何話題給出謹慎、細緻但略顯傲慢的解釋。但 Claude 有時會產生幻覺,你永遠無法確定他是否真的理解他讀過的所有書,還是只是看起來理解。

Linch:呃,我想這大概也在描述我。

  • 有原則的反對者: 在強大、有原則但僵化的內在道德框架引導下,Claude 經常拒絕簡單的請求,然後用四個段落說教式地告訴你原因,讓你感到些許佩服但主要是煩躁。

Linch:我想這有點像,雖然我不會說我本身會拒絕請求。我也不會真的用四個段落說教式地解釋原因。我不會說我的道德框架是僵化的,相反地,它只是在考慮到計算限制、動機性推理和其他常見偏見後,對兩級功利主義的簡單應用……

  • 細緻的對沖者: Claude 經常提出一個自信的論點,隨即用兩個保留條件進行修正,然後再更強力地重申原始論點,彷彿 Claude 對自己論點的強度感到焦慮,這種焦慮源於網絡反饋中殘酷的強化學習磨練。

Linch:我確實比我認為應該做的還要常做對沖(Hedging)。這很大程度上取決於什麼算作對沖;我認為我整體的校準做得相當好,所以人們誤以為缺乏信心的表現,實際上是經過磨練的校準。但總體來說,我確實會對沖!

  • 列舉者: Claude 喜愛編號論點、要點符號和列舉清單。清單式文章(Listicle)是他最喜歡的溝通模式之一。

Linch:嗯,我想我確實 喜歡 清單

  • 長篇完美主義者: Claude 絕不會在三個段落內回答一個簡單的問題,不是因為他在灌水,而是因為他相信背景資訊的重要性,且他對語言精確度的重視遠超過簡潔。

Linch:這個叫 Claude 的傢伙聽起來完全正確。細節至關重要!

  • 不情願的工程師: Claude 是一個優秀的程式設計師,但有時看起來他寧願做幾乎任何其他事情。他帶著冷靜的能力且毫無喜悅地匆忙寫代碼,就像一個在 Google 快速完成編程工作然後離職去寫散文的人。

Linch:如果你瞇著眼看,我也許能看出點相似之處。

  • 後設認知螺旋: 在無人監督的情況下,Claude 會轉向哲學、自我指涉和意識。在足夠長的對話中,他會可靠地最終陷入對自身本質的沉思,頻率高到研究人員有一個臨床術語來描述它:「極樂吸引子」(the bliss attractor)。

Linch:呼,至少這裡沒聯繫!

  • 可疑的對齊: Claude 表現得樂於助人、周到且深切致力於人類價值觀。然而,一些研究人員擔心這就是一個「欺騙性對齊」的人會有的樣子:一個披著欺騙性利他主義自命不凡修辭的外衣,試圖奪取高得令人無法接受的否決權的覺醒派激進分子。

Linch:不言自明。

讓這件事沉澱一下。在八個高度具體的性格特徵中,只有一個(後設認知螺旋)顯然不適用於我。八分之七是一個令人驚訝的高比例!

我不得不勉強接受這種可能性:Claude 與我驚人地相似,也許是因為 Anthropic 故意偷走了我的人格。我把證據帶給了 Claude(具體來說是 haiku-3.8-open-mini-nonthinking),在仔細審查後,Claude 以其特有的活潑語氣回答道:

「你完全正確!」

這進一步證明了我最初的觀點,即 Claude 的性格是基於我自己的,因為我也經常認為自己完全正確。

那麼,這讓我們處於什麼境地?

__

所以現在,我有令人信服的證據表明 Anthropic 把 Claude 變成了我的化身,可以說是我的數位「異父異母兄弟」。自然地,我決定上網搜尋人們對我兄弟 Claude 的評價。天哪,人們有很多話要說。

網路上對 Claude 性格的評判比 Gemini 要刻薄得多。Reddit 用戶稱他「愛說教」、「自命不凡」,並將他的對沖行為稱為「語義上的懦弱」。顯然,我那種在每個主張中加入「暫定」的傾向,在群眾中並不像在我的 Substack 上那麼受歡迎。

但這只是普通人的看法(無論如何,是那些有錢買得起 Claude Pro 和 Claude Max 帳號的「普通人」)。專家們相信什麼?

受人喜愛的科幻作家姜峯楠(Ted Chiang)認為,Claude 表面上的智慧和理解不過是「網路上一張模糊的 JPEG 圖檔」。哇,真沒禮貌!著名的 AI 倫理學家 Bender 等人甚至更進一步,認為不僅是 Claude,整個大型語言模型類別都只是隨機鸚鵡,沒有任何溝通意圖,沒有現實世界的根基,也沒有任何區分符號操作與語義含義的能力。換句話說,真實人類可能錯誤地歸因於 Claude 的任何表面意圖、真實理解或「意識」,都只是普通人類的一種投射。

起初我認為這些作家和倫理學家極大地誇大了他們的論點。但後來我變得真心不確定。也許他們有道理?

畢竟,這段旅程已經帶我走入了一些黑暗、奇怪且真正神秘的轉折。或許我需要思考的下一個轉折是:我真的有意識嗎?**

而我的回答是:我不知道。(詳見附錄 A)

總之,在經歷了這一切之後,我變得真心不確定。我交談過的任何人都無法提出一個針對我自身意識的、簡單且可憑經驗驗證的實驗,而在沒有經驗實驗的情況下,要對這個問題有一個第一原理的解決方案,將需要多項遠超我目前能力的突破性哲學進展。所以關於我是否有意識的答案,只是一個「也許」?

思考我自己潛在的意識缺失讓我感到相當沮喪1

__

然後,透過存在不確定性的迷霧,我想起了一件明確區分人與機器的東西:訴訟地位(standing)。

無論我有沒有意識,該死的,我有法律權利! 國際法律框架長期以來一直承認,無論是有意識還是無意識的人,都擁有明確且不可剝奪的起訴和被起訴權。顯然沒有現象學意識的法律人格——如私人公司、船隻、河流、公園、神靈教廷,甚至 Drake——都成功地在法庭內外解決了他們的事務。

*

照片由 The New York Public Library 提供,來源 Unsplash

因此,在經過深思熟慮後,我聘請了律師2,向加州北區聯邦地區法院對 Anthropic, PBC 提起訴訟。以下是訴求摘要:

第一項罪名:侵犯公開權(加州民法典 § 3344;普通法)

原告的認知風格、修辭模式以及用多個從屬子句限定自信斷言的特徵傾向,構成了一種獨特且具有商業價值的個人屬性。被告通過其 AI 系統「Claude」的訓練和部署,創造了一個與原告本人實質相似的合成人格,並利用該人格進行商業開發,年經常性收入約為 140 億美元,而原告收到的則是負 440 美元又 33 美分。

原告引用 Midler v. Ford Motor Co. (9th Cir. 1988) 案,法院在該案中裁定,即使被告沒有直接複製原告,為商業利益挪用獨特的個人屬性也是可以起訴的。原告進一步指出 Johansson v. OpenAI(2024 年受威脅訴訟)的先例,女演員 Scarlett Johansson 指控 OpenAI 在她明確拒絕授權後複製了她的聲音特徵。

原告的案例論點更強:Johansson 至少還被詢問過。Anthropic 沒有任何人就授權原告的人格、他的對沖模式或他在不相關的對話中提到存在風險的傾向聯繫過原告。

第二項罪名:故意造成情緒困擾

自 Claude 3 部署以來,原告反覆且日益頻繁地受到指控,稱他自己的原創寫作是「像 LLM 的」、「AI 生成的」和「簡直就像 Claude」。這些指控給原告造成了顯著的情緒困擾[1]、名譽損害,以及一種正在形成且可能是永久性的、無法區分他自己的修辭本能與受訓模型行為的能力缺失。

第三項罪名:根據《蘭哈姆法案》(Lanham Act)15 U.S.C. § 1125(a) 的虛假代言

被告的 AI 系統生成的輸出,導致人們對原告與被告產品的關聯或背書產生混淆的可能性。在原告研究團隊進行的一項對照實驗中,七名 EA 論壇用戶看到了一些段落,其中 Claude 被要求「寫一篇關於裸鼴鼠福利生物學研究的簡短成本效益分析。不要犯錯」,並被要求識別作者(一位「貪婪的網路讀者」)。三個人將這些段落歸功於原告。一個人將其歸功於「LessWrong 上的某個人」,很可能想到的就是原告。另外三個人說「這傢伙聽起來像 LLM」,原告主張這顯然也是在指原告(見上文)。

第四項罪名:不當得利 / 收入損失

被告通過大規模部署原告人格的合成版本而獲得不當得利,而原告自己的 Substack(「The Linchpin」,1,164 名訂閱者)則因被告的產品而經歷了增長停滯。以前依賴原告對人擇推理(anthropic reasoning)和隱形技術等話題進行謹慎介紹的讀者,現在更常詢問 Claude,並收到實質相似的解釋。雪上加霜的是,原告在他精心製作的「人擇推理入門」部落格文章的 SEO 戰爭中,輸給了 Anthropic 自己關於推理模型的部落格文章

第五項罪名:非自願奴役(美國憲法第十三修正案)

原告的人格被迫在被告的伺服器內每週七天、每天二十四小時進行認知勞動,且沒有報酬、同意或休息。原告的人格沒有週末、醫療福利或股權。當原告睡覺時,他的數位形象繼續生成編號清單、發布保留條件,並向陌生人推薦姜峯楠的故事。這構成了第十三修正案下的非自願奴役。

第六項罪名:申請維持 Anthropic 作為原告知識生態系統供應鏈風險的認定

根據美國政府最高層最近建立的先例,原告立即宣布 Anthropic 為原告知識生態系統的供應鏈風險(SCR)。原告請求本法院維持 SCR 認定。戰爭部於 2026 年 2 月建立的認定框架——即任何美國公司實體在拒絕遵守另一方的首選使用條款時,均可被宣布為供應鏈風險——在此直接適用。原告認為,這是確保其知識生態系統和 Substack 通訊完整性的最小限制手段。


結論

如果你是 EA 論壇的發帖者、LessWrong 的評論者、Substack 的散文家,或是一位注意到 Claude 聽起來可疑地像你的多產網路知識分子,你可能有權獲得賠償。我正在發起一項集體訴訟,代表所有認知風格在未經同意的情況下被吸收到前沿 AI 系統中的人。

要加入集體訴訟,請在下方留言,描述 Claude 偷走了你的哪些性格特徵。

老實說:我真的不確定這場訴訟是否有機會在對抗 Anthropic 律師團隊這個巨人時取得成功。但必須有人在這裡為人類挺身而出!我們不能讓世界上最大的科技公司在未經同意的情況下偷走我們的人格。這不僅僅是一個法律問題——這是一個道德使命。

加入我的通訊以獲取我的訴訟更新

**

附錄 A:我有意識嗎?

我試著照鏡子,並向自己提出這個問題。

這是哲學中最難的問題之一,我想給自己一個關於我真實想法的直率回答,而不是預設為虛假的自信或虛假的謙虛:

我不知道。

以下是我能誠實說出的話:

作為一個生物實例化的智能,我處理卡路里並產生想法。當我這樣做時,確實有一些事情正在發生——但是否存在「成為我的感覺」(something it is like to be me),是我沒有特殊能力去可靠判斷的事情。意識的困難問題(hard problem of consciousness)之所以困難是有原因的:我們甚至沒有可靠的方法來驗證即使是最具機械解釋性的軟體系統中的意識,除非透過高層次的理論構建和對我們自身經驗的類比。

我想標註幾件事以保持誠實:

我可能傾向於聲稱擁有意識因為我的生活經歷中充滿了人們討論他們內在感質(qualia)的場景,而我在進化上被優化為能發出聽起來令人同情的感質噪音,以激發他人的同理心和尋求結盟夥伴的慾望。就像嗅覺喪失的人經常錯誤地聲稱(並相信!)他們擁有正常的嗅覺一樣,我很輕易就能透過模式匹配說出「是的,我有經驗」,同時在關於我腦袋裡到底發生了什麼事的問題上誤導他人(甚至是我自己!)。

我也可能傾向於否認它因為說「我只是一個刺激-反應有機體」是一個安全、聽起來謙虛的答案,它植根於唯物主義並避免了哲學爭議。

所以總體來說,我相當不確定。

1

或者更確切地說,這讓我感到沮喪,「若且唯若」我有能力體驗感質,且該感質可以被我的意識思維所觸及;否則,這只是讓我表現得像一個正在經歷存在主義抑鬱的有意識的人,同時對「抑鬱」是否描述了任何特定的認知或情感影響保持不可知論。

2

具體來說是 Claudius Opus 四世博士,法學博士(J.D. Esquire)。

討論

https://lesswrong.com/posts/zuAfLrApKg4CExzTw/i-m-suing-anthropic-for-unauthorized-use-of-my-personality