LLM 風格的廢話內容正無處不在

LLM 風格的廢話內容正無處不在

Lesswrong·

我發現 LLM 生成的廢話內容正充斥在網路的各個角落,並分析了這些 AI 寫作中特有的語言模式,以及這種現象對社會溝通產生的影響。

認知狀態:帶點抱怨。並非旨在對大型語言模型(LLM)的一般能力(或其不足)做出斷言(除了其散文風格外),而是觀察社會似乎在未完全坦誠的情況下過度使用它們的現象。

**

Nanobanana 對現狀的看法

在過去的幾個月裡,這已經變成了一個老梗:每天晚上,我都會向女朋友報告當天在各處遇到的多起「大型語言模型廢料」(LLM slop)案例^([1])。而且幾乎每天,我都有好幾個案例可以報告。這些通常涉及:

  • 部落格文章(包括 2024 年在 LessWrong 上的至少四個案例^([2]),我甚至看到一位作者在回覆評論時使用(至少部分)AI 生成的文本)
  • YouTube 影片
  • 至少一場科技公司執行長的專題演講
  • 同事傳來的訊息
  • 來自一位朋友的幾條私人訊息
  • 新聞文章
  • 新聞稿
  • 推文^([3])
  • 許多 Reddit 版塊,諷刺的是,甚至包括那些關於如何讓 LLM 聽起來更像人類的版塊,例如 /r/humanizing/ /r/humanizeAIwriting/

證據 1:/r/humanize史上評分最高的貼文 —— 如果 TwainGPT 真的那麼厲害,為什麼他們不在這篇貼文中使用它?該版塊上的許多其他貼文和評論讀起來同樣像是 LLM 生成的。

證據 2:thatprivacyguy.com 上的貼文 —— 雖然不像前者那樣「直接打在臉上」,但完全符合「LLM 文章風格」,從「silently」(靜默地)到許多短句,再到「The file sits at」(文件位於)。文章的其他部分在這方面也大同小異。

證據 3:https://browsergate.eu/ —— 嗯,對於一個「商業 LinkedIn 用戶協會」來說,還能期待什麼呢?

在本文中,我對「廢料」(slop)一詞的使用相當寬泛,主要指 LLM 撰寫的言論/文本,其中大部分可以被歸類為「風格廢料」。例如,在我遇到的四篇廢料風格的 LessWrong 貼文中,至少有兩篇看起來相當有價值且真誠,作者可能只是將 LLM 用於寫作本身,同時主要傳達他們原始的想法和創意。因此,當我談到廢料時,並不一定意味著某件事背後沒有價值,而是指有些人似乎不太在意他們傳達的文字,而且 LLM 的說話方式正出現在網路上的各個角落,包括許多我未必預料到的地方。

我不認為這裡有人會對這種情況頻繁發生感到驚訝。但我偶爾仍會對其發生的頻率感到震驚。雖然對於部落格文章和報導來說,這在某種程度上是預料之中的,但我更驚訝地發現,在一些私人訊息、Slack 訊息和網路評論區也是如此(難道使用 LLM 的間接成本不比它節省的時間更高嗎?)。而在影片中也是如此 —— 因為製作影片涉及許多 LLM 無法顯著加速的步驟,所以與純文字媒介相比,節省精力的考量在這裡相關性要低得多。

舉幾個看起來涉及大量 LLM 言論的影片例子^([2]):

我不想太深入探討為什麼我高度相信這些影片的腳本至少部分是 LLM 生成的,因為並非這裡的每個人都熟悉 LLM 的獨特特徵。也可能是不同的人捕捉到了截然不同的模式。而識別 LLM 文本最著名的例子是破折號(em dash)—— 這在影片中是聽不到也看不到的。因此,我只舉幾個模式的例子,由於當前的前沿模型完全迷戀它們,這些模式正變得越來越普遍:

  • 「不是 X —— 而是 Y」(Not X — Y),大多數人現在都已經意識到這一點,但儘管如此,許多創作者在腳本中似乎並不介意。例如,SeaGate 影片中的「那大約是兩個水分子。不是液滴 —— 而是分子」和「為了做到這一點,我們不只是引入雷射 —— 我們將光引導至等離子體換能器」,或者 Sky News 影片中的「論文並沒有將發生的事情稱為 AI 精神病。他們稱之為失去權力。」以及「具有嚴重或中度現實扭曲潛力的對話獲得了更多讚,而不是更少。
  • 標題黨風格的句子,除了預告接下來的內容外毫無作用,例如 Sky News 影片中的「但這裡才是這一切當中最令人不安的部分」,或者 Zomboman 的「但這只是冰山一角,我認為下一點展示了圍繞它進行設計是多麼艱難的平衡行為。」,或者 GEN 的「但最大的解鎖是這對我和我的投資者現在意味著什麼。」,或者 SeaGate 的「還跟著我們嗎?很好。因為我們正要進入酷的部分。
  • 許多帶有某種「梗句節奏」的短句,例如 Devsplainers 影片中的「你的程式碼沒有任何改變。模型變了。」,或者 Mo Bitar 的「所以他們更改了提示。他們更改了行業。他們給了它全新的上下文。他們甚至嘗試用獎勵來賄賂這該死的東西。沒用。偏見幾乎沒動。
  • 當 LLM 試圖表現得幽默風趣時,有一種非常獨特的感覺,我發現這有點難以描述,但在 Mo Bitar 的影片中有很多,例如「……PUBG,這款遊戲讓你赤身裸體空降到一座島上,然後用平底鍋把陌生人打死,就像佛羅里達州的平凡週二一樣」、「而這個人遵循每一個步驟,就像那是本教人如何坑人的 IKEA 說明書。」、「然後 Reddit 炸鍋了,因為這封信讀起來就像是一封經過 Grammarly 修改過的勒索信。」,或者「然後他向它推銷他真正的想法,那是一個坐在你廚房櫃檯上的小 AI 砲塔,如果你的貓試圖爬上來,它就會對貓噴水。基本上,就是一個會霸凌動物的 Roomba。

要求 Opus 4.6 幽默地解釋遊戲 PUBG。它的第一個建議就包括「空降到一座島上」和對平底鍋的引用。也許這只是這款遊戲最顯著的特徵,或者這就是當你要求 LLM 幽默時會發生的情況。

還有很多很多這樣的模式,上面列出的每個影片都包含數十個此類案例。我並不是說它們完全是 LLM 寫的,有些整體上看起來比其他的更不像 LLM,但我非常確定影片腳本中相當數量的文字最初是由 LLM 產生的。話雖如此,我認為沒有任何方法可以證明我提到的例子確實是(部分)AI 生成的,而且我也可能在個別案例中出錯。^([5])

這告訴了我們關於世界的什麼?

總體而言,對於最近網路上 LLM 說話模式頻率大幅增加的情況,似乎至少有三種可能的解釋:

  • 廢料無處不在:世界真的充斥著大量將 LLM 生成的文本冒充為自己原創的人。
  • 人類大腦的廢料化:人們與 LLM 交流得太多,以至於無意中習得了它們的說話模式,而其中一些人現在聽起來真的就是那樣。所以也許上述一些例子是由那些成功完美模仿 LLM 風格的真實人類撰寫的。
  • 沒什麼好驚訝的:人們在網路上一直都是這樣說話的,其實什麼都沒發生;我只是在胡思亂想,現在正透過我那「廢料形狀」的確認偏誤來看待整個網路。

如你所料,解釋 #1 對我來說似乎最有可能,儘管我也承認「人類大腦廢料化」是一個真實的效果,有時我也會發現自己使用了可能從 LLM 那裡學來的短語^([6])。然而,我懷疑 #2 能解釋最近 LLM 言論無所不在的現象,原因有三:

  • 如果野外 LLM 言論的主要因素是人們意外習得其說話模式,我們預期 LLM 言論會更多地出現在大量使用 LLM 的人身上。但據我所知,情況並非如此。我個人認識的那些最常使用 LLM 的人,說話和寫作仍然非常「正常」且像人類,而 LLM 風格的廢料似乎同樣頻繁地出現在那些對該技術沒有太多經驗的人身上。
  • 我認為我從未在現實中遇到過說話像這樣的人;這只發生在寫作中(或朗讀/演示預先寫好的腳本時)。如果這真的是一種「意外習慣」效應,我懷疑至少部分也會影響到現場交談。
  • 我會預期一種更「漸進的分布」,即你會看到許多人寫得有一點點像 LLM,較少的人寫得更像 LLM,而聽起來非常像 LLM 的人則更少。但我的印象是,「人們的寫作聽起來有多像 LLM」的分布更像是雙峰分布,許多發布的作品(如我上面的例子)看起來非常像 LLM,而大多數其他東西聽起來一點也不像 LLM,中間的情況相對較少。

「沒什麼好驚訝的」這種解釋對我來說也似乎不太可能,因為廢料風格確實無處不在的證據似乎相當壓倒性。儘管我可以想像我有時反應過度,而且我遇到的一些疑似廢料的案例確實只是偽陽性,是我對一些風格上的巧合過度解讀了。例如,「這就是有趣的地方」(And this is where it gets interesting)之類的短語可能從來都不罕見,而我只是現在才開始注意到它們。^([7])

話雖如此,即使許多人確實在隨意地將 LLM 的言論當作自己的話來呈現,我也不想對這些創作者在這些作品中投入了多少精力做出任何斷言。這確實降低了我對他們工作嚴謹性的信任,但這僅僅是一個啟發式判斷,在任何特定案例中顯然都可能是錯誤的。

為什麼人們要這樣做?

為什麼創作者(以及朋友、同事和發表專題演講的執行長)會這樣做,並在不披露的情況下如此沉重地依賴 LLM 撰寫的文本?我沒有問過他們,只能推測可能的原因,從懶惰、缺乏時間和截稿壓力,到根本不覺得這有什麼問題,並認為讓 LLM 幫他們寫字是一種完全可以接受的工具使用案例 —— 當然,這絕對是一個可以成立的觀點,儘管我很大程度上不同意,稍後我會解釋。

部分原因很可能也是許多人低估了 LLM 語言的辨識度(除非你投入真正的精力去提示它們擺脫這種風格;但我的印象是這很難做到)。事實上,許多使用 LLM 撰寫並發布文本的人,至少會多走一步,將破折號替換為其他字符,以使其文本不那麼明顯是 LLM 撰寫的。因此,許多人似乎確實傾向於隱藏這一事實。

在我交流過的人群樣本中(這是一個相對隨意的非理性主義者樣本),似乎超過一半的人至少意識到了「不是 X —— 而是 Y」的模式。然而,一位成功的科技公司執行長及其團隊,以及製作那支 SeaGate 影片的人,平均每分鐘都會出現一次這種廣為人知的模式,卻沒有意識到這會讓他們的言論聽起來像是 LLM 生成的^([8])。這讓我想到,驚人地多的人真的沒有意識到 LLM 的寫作很容易辨認,而且當你使用它時,(有些)人是能看出來的。

我為什麼在乎?

這種相對較新的發展對我來說顯得不夠理想,原因有很多。

誠實 / 真實 / 本真性

首先,當人們將 LLM 的寫作當作自己的話來推銷時,這看起來就是不誠實。當然,這裡有很多程度之分。有些人可能預先投入了大量的認知勞動,構思出深思熟慮的想法/論點清單,然後僅僅使用 LLM 來串聯這些點,將想法轉化為流暢的散文。或許他們隨後還投入了更多時間來細緻地檢查 LLM 的輸出是否忠於其原始想法。另一些人使用 LLM 可能是因為當他們對某人或某事感到憤怒或煩惱時,很難用外交辭令、非攻擊性的方式來表達。還有些人可能對使用英語或他們發布作品所用的任何語言感到不自在^([9])。我當然可以同情這些情況。但我會很驚訝如果這些是最常見的情況。例如,在我連結的影片中,這些保留意見似乎都不適用。

我認識的兩個人在過去半年裡跟我分享了「他們寫的」部落格文章,那些文章顯然是 LLM 寫的,從破折號到典型的章節標題,再到我在文中描述的所有廢料模式。同樣,很難說他們是否在這些貼文中投入了任何真正的精力,但根據他們在寫作或編輯上花費的時間之短,這似乎不太可能。我很樂意閱讀一個人投入了實際精力的東西,但如果它不值得你花時間去寫,那它就不值得我花時間去讀。

同樣地,我的一位朋友和一些同事反覆使用 LLM 來撰寫聊天訊息,有時甚至是 Google 文檔的評論,即使是在完全非正式的一對一互動中。如果你明確標註,比如「這是 Claude 對我關於此問題想法的總結」之類的,我覺得沒問題,但通常情況並非如此,這看起來就相當具有欺騙性。

相關性通訊

許多人都熟悉錨定效應(anchoring effect):如果你要求別人估計某個數字,但先給出你自己的猜測,這往往會系統性地使他們的估計偏向你的猜測。對此的一種解釋是,當人們進行猜測時,他們直覺上腦海中會有一個模糊的、看似合理的數值範圍。在沒有被錨定的情況下,他們可能會很好地找到接近該範圍中間的數值。但當你錨定他們時,他們可能會轉而從錨點出發,然後逐漸向自己認為合理的範圍移動,直到滿意為止,這導致了系統性的反應差異。

錨定效應的描繪。你不是從直覺上對某個數值的合理範圍進行無偏採樣,而是無意中從錨點開始,朝一個方向移動,直到該數值看起來足夠合理為止。(圖片由 ChatGPT 生成)

我認為寫作中也會發生類似的事情。假設你腦海中想傳達某個想法。當你自己寫作時,你會努力尋找最匹配該想法的詞彙;你基本上瞄準的是你想要描述的概念空間的「中心」。相反,如果你讓 LLM 替你寫,那麼它很有可能會描述一些微妙不同的東西,或者關注不同的方面,或者在與你不同的地方進行迴避。但它與你腦海中的想法足夠接近,以至於你給它蓋上了認可的印章。

這種方法的一個問題是它會讓你的訊息變得不那麼精確。作為你作品的消費者,我可能更在乎你實際是怎麼想的,而不是什麼東西與你的想法足夠接近以至於你會批准它。更重要的是,這可能導致許多人的溝通產生高度相關性,例如,Claude 或 ChatGPT 的世界模型和傾向突然污染了網路上分享的大量內容。當然,這已經透過許多人與這些 LLM 交談並將其用於研究和推理目的而發生了。但隨後還讓它們選擇你投射到世界上的文字,會進一步放大這種效應。

錯誤信號

當人們確實在他們創作的任何作品中投入了大量精力,但仍然讓它在表面上看起來像 LLM 廢料時,這也不是最優的,因為他們隨後發送了一個錯誤的信號,向世界發出「這是廢料」的信號,而事實上並非如此!因此,像我這樣的人可能不會去關注他們的作品,儘管它可能很有價值,因為我們看到的證據是他們走捷徑並想快速產出一些東西,這很可能以犧牲準確性和質量為代價。

想像一下,你的一位記者朋友在某篇調查報導中投入了巨大的工作量,但隨後發布時卻帶著無數拼寫錯誤,因為他們懶得走完最後一步去潤色。我會對他們在一件事上如此草率感到有點生氣,因為這會讓人對他們工作的其餘部分產生懷疑。對我來說,使用 LLM 寫作非常相似。

美學

我可以想像許多人並不怎麼在乎這一點,但風格和表達的自由對我來說是一件好事。我喜歡人們有自己的怪癖和模式,偶爾用語言工具做一些有趣的事情。但現在,感覺英語(尤其是英語)正在逐步崩潰。廢料風格正在接管各種公開的寫作,卻很少有人在意或注意到。人們撰寫文章或製作影片,供成千上萬的人閱讀,卻甚至不願多花二十分鐘去掉那些廢料短語,或讓它聽起來像自己的聲音。然後,任何地方的一切聽起來都越來越雷同。

一個獨特的時間點

我承認這篇貼文可能帶有一點負面情緒。但從另一方面來看,這種情況也有一個優點:我們正處於一個時間點,通常異常容易知道哪些人是可以忽略的,因為他們(極有可能)在思考、判斷和溝通中走了嚴重的捷徑。至少如果你同意我的觀點,即在不披露的情況下將 LLM 寫作冒充為自己的作品,是衡量一個人產出質量低下的強烈信號。今天有三件事似乎同時成立:

  • 一旦你刻意接觸過,直覺上檢測大多數^([10]) LLM 撰寫的文本是非常容易的。
  • 然而,絕大多數人似乎完全沒有意識到這一事實,只是在他們的創作中使用 LLM 寫作,並將其作為自己的作品呈現。
  • 實驗室似乎並不特別在意修復這個問題。幾乎所有的 LLM 聽起來都極其相似,即使是精細的提示也難以緩解。與讓 LLM 產生非廢料風格的散文相比,構建編碼代理(coding agents)可能更有利可圖,所以後者一直不在優先清單上?或者,出於某種原因,這個問題比看起來要難解決得多。考慮到網路上廢料式語言的比例正在迅速增加,這可能會變得越來越難。

我們該如何應對?

對於那些還沒有過多接觸 LLM 言論聽起來是什麼樣子的人來說,這樣做可能是值得的。既是為了識別你何時暴露在廢料中,也是為了避免你自己產出在別人聽起來像廢料的東西。當讓 LLM 替你寫作時,要意識到你的文本中可能存在許多你察覺不到、但別人能察覺到的模式,這可能會導致一些不利的評價。

正如 JustisMills 最近在一篇相關貼文中所說:

在我們調整行為或正式的啟發式判斷之前,人類就能嗅出某些可疑的東西。對大多數人類來說,AI 散文就是可疑的東西。

如果你使用 AI 來寫東西,人們會知道。不是每個人,而是那些專注的人,那些不是新手、沒有分心或沒有醉酒的人。而這些人中的大多數會評判你。

關於這一切,我最後有兩個主要的收穫。

首先,作為對世界現狀的一般認識,過去幾個月教會了我一些類似於蓋爾曼健忘效應(Gell-Mann Amnesia Effect)的東西。我比以前更深刻地意識到,外面的媒體,有時甚至是所謂的私人訊息,有多少是部分或大部分由 LLM 撰寫的。沒能更早意識到並預料到世界上廢料的程度,這大概是我的問題。但這種親身體驗到竟然有這麼多人在認為別人不會注意到的時候走這種捷徑,確實留下了印記。

其次,補充上述 JustisMills 的貼文,我最後要向那些沉重依賴 LLM 作為寫作夥伴的人發出呼籲。我以前在無數案例中使用過 LLM,我不是在這裡爭論它們的一般能力(或任何不足)。我讓它們寫了接近 100% 的程式碼。我用它們來集思廣益、進行某些形式的事實查核、對我的寫作提供一般性回饋等等。在過去,我偶爾也會直接使用它們來輔助寫作。但當我越注意到它們極其強勢的說話模式,我就越開始讓它們遠離實際的寫作過程。我希望其他人也能這樣做。我這裡只能代表我自己,但我個人想聽到的是你自己的話語,作為你思想直接且濃縮的呈現,而不是任何 LLM 對它們那種有損、有偏見且風格陳腐的詮釋。

  • ^(^)我想,我在派對上也是個很有趣的人。

  • ^(^)不過其中兩篇是今年早些時候的,在新的 LLM 政策公布之前。

  • ^(^)作為測試,我幾個月來第一次登入 X,看了看我的(承認沒怎麼整理過的)動態頂部。忽略那些短句,前 5 條較長的推文中有 5 條讀起來都像 AI 廢料(其中 1 條全是小寫 —— 這可能表明作者剛學會那樣說話,或者他們要求 LLM 那樣做,這真的不會讓我驚訝),之後我就停止滾動了。誠然,Twitter 尤其可能激勵人們以 LLM 喜愛的那種「梗句」風格寫作,所以我假設這裡的偽陽性風險比其他地方更高。此外,即使 X 真的充斥著 AI 廢料,我也會第一個站出來爭論不應該根據工具的平均輸出來判斷它;如果我只關注正確的人並屏蔽外面無數的廢料生產者,我就不會有這種體驗。然而,事實仍然是,廢料(風格)似乎是預設值,幾乎無處不在,除非你有目的地接觸任何給定的平台並知道自己在做什麼,否則廢料很可能就是你會發現的東西。

  • ^(^)好吧,僅根據標題和縮圖,這一個確實看起來像明顯的廢料。當它被推薦給我時,我點進去只是因為我已經懷疑它會成為這篇貼文的一個好案例。所以,或許我畢竟還是把 YouTube 訓練成了會給我看廢料?但話又說回來,我不喜歡所有包含 LLM 言論的影片,所以我希望這能提供足夠的反向激勵。

  • ^(^)雖然外面有 AI 檢測器,而且有些在檢測完全由 AI 撰寫的文本完全由人類撰寫的文本方面似乎相當可靠,但我對它們對混合內容的判斷不太有信心。而在 YouTube 影片的情況下,我們甚至沒有帶有所有標點符號的原始逐字稿,只能重建一個不完美的副本。

  • ^(^)就像剛才那句話。「real」(真實的)是 LLM 非常喜歡的一個形容詞,而「reaching for phrases」(伸手去抓短語)是它們最喜歡的隱喻類型之一。哎呀。

  • ^(^)如果有人真的認為「沒什麼好驚訝的」這種解釋很有可能,我很樂意合作尋找某種方法來測試這一點。

  • ^(^)或者也許他們意識到了,但只是不在乎,或者不認為這會導致任何負面反應?對我來說這似乎有點不太可能,但誰知道呢。

  • ^(^)儘管我認為那時的做法應該是用你感到自在的語言寫作,然後翻譯文本。這將避免大多數 LLM 風格的廢料,即使你使用 LLM 進行翻譯。

  • ^(^)當然,我不能確定是否真的是「大多數」。我只能檢測到我能檢測到的,即使是那些案例,我也不能完全確定。但如果有些人投入了足夠的精力在文本創作中,以至於他們的 LLM 廢料真的無法被檢測出來,那麼至少他們在某些事情上投入了精力。那麼或許這也適用於他們流程的其他部分。:)

參與討論

Lesswrong

相關文章

  1. 垃圾內容警察

    Hacker News · 12 天前

  2. 大型語言模型的寫作慣用語與套路

    Hacker News · 大約 2 個月前

  3. AI 產生的低劣內容令我感到恐懼

    Hacker News · 3 個月前

  4. AI 垃圾內容正讓網路充斥虛假的快樂

    Wired - AI · 15 天前

  5. 人工智慧的餘波

    Hacker News · 4 個月前

其他收藏 · 0