別讓大型語言模型代你寫作
我認為人工智慧生成的散文缺乏人類思考的深度,且容易被細心的讀者察覺,進而導致公信力與吸引力的喪失。雖然大型語言模型在腦力激盪或事實查核方面很有用,但最終的寫作仍應由人類親自完成,以確保觀點的清晰與真實。
內容附註:本文內容並非惡作劇或驚嚇整人,我不會在最後露出得意的笑,告訴你其實你一直以來讀的都是 AI 散文。
在熱鬧的 2026 年,人們很容易忘記這一點:智人(homo sapiens)才是最初的「氛圍感測器」。早在我們調整行為或正式的啟發法之前,人類就能嗅出某些不對勁的地方。而對大多數人來說,AI 散文就是那種不對勁的東西。
如果你用 AI 來寫東西,人們會察覺。並非每個人都能發現,但那些專注的人、那些不是新手、沒有分心或沒有醉酒的人會發現。而這些人中的大多數會對你產生負面評價。
原因
人們可能只是單純被 AI 噁心到,或者將 AI 與加密貨幣混為一談,並假設你是一個「科技宅(tech bro)」,又或者認為只有缺乏創意的朋友才會使用 AI。這些都是糟糕的反對理由,我並不認同。但當我聞到大語言模型(LLM)的味道時,我就會停止閱讀。我停止閱讀的速度,比看到錯別字、蹩腳英文或不喜歡的意識形態時還要快。原因有二。
首先,人類的寫作是人類思考的證據。如果你試圖寫一些你並不十分理解的東西,這會立即顯現出來;你最終會寫出一團亂麻,直到你理清底層的想法,它才會保持混亂。因此,當我讀到清晰的散文時,我會假設我正在閱讀一個經過提煉的思想。LLM 散文劇烈地打破了這種相關性。如果有人叫 Claude 「幫助將他的想法轉化為文字」,那麼即使這個想法模糊且愚蠢,Claude 也會寫出清晰的散文。如果那個人要求「幫助尋找引用文獻」,而實際上並沒有好的文獻,Claude 會找到隨機的 D 級文章並權威地鏈接它們。最糟糕的是,如果那個人在論點足夠混亂時要求 Claude 「挑出論點中的漏洞」,Claude 只會編造一些隨機的「問題」,讓那個人去規避(或者,老實說,讓 Claude 去規避)。所以你最終得到的是一份引用了來源、有很多注意事項,卻……沒有經過深思熟慮的核心思想的作品。如果你讀了足夠多這類文章,當你看到帶有粗體標題的結構化列表、奇怪的括號旁白、每隔 2-3 句就出現一次浮誇的對比性免責聲明,或任何比破折號更微妙的難以言喻的跡象時,你就會開始迅速切換視窗離開。
有沒有可能一段 50% 由 AI 生成的文本中包含了一顆深思熟慮的明珠,只是可憐的人類作者沒有時間或技術能力來表達?我想是有可能的。但不值得去驗證。
第二點,且與第一點密切相關:AI 散文讀起來很累。有太多的鋪墊,有太多的列表,且每個列表都有幾項毫無作用,粗體和斜體顯得迫切,而且一切都顯得如此千篇一律。在你與可以完全引導的 AI 進行對話時,你偶爾可以暫時擺脫這種感覺。但閱讀別人與 AI 對話的輸出內容很少是有趣的。
簡而言之,如果有人閱讀了「你寫的」文章,而它看起來很有 LLM 的味道,他們會認為:
- 在這些廢話之下,你可能並沒有真正好的想法
- 即使你有,要穿過這些廢話也太痛苦了
如果你希望讀者留下來,他們是不會留下的。事實上,你越是渴望讀者,他們就越有可能被這些東西勸退。即使他們是世界上頭號 AI 粉絲也一樣。
盧德分子!道德家!
好吧。我承認。就在這週,我也經歷了誘惑。
你可能知道我是一名編輯。以這個身份,我當時正在根據評審意見修改一篇學術論文的摘要。但我同一個項目中還有好幾篇論文要處理,而該項目的負責人積極鼓勵我使用 AI,以便能趕上截止日期。^([1])
於是我把論文和評審意見交給了 Claude,要求它寫出一個能讓評審滿意的新摘要。結果看起來不錯。
「這只是一段摘要,」我對著自己低聲說,臉部被筆記型電腦螢幕的藍光映照得有些詭異。「總結。綜合。」我前後搖晃著身體。「我可以……就這樣……」
但不行。Claude 的摘要是一個有用的提醒,讓我知道這是哪篇論文,Claude 也幫忙分類了評審的要求。儘管如此,我還是自己從頭重寫了摘要。在重寫的過程中,我注意到了很多我在粗略瀏覽 AI 輸出時沒看到的東西。它包含了一些並非真正需要的內容。它強調了一些其實並不那麼重要的東西。
我有沒有反過來用 Claude 跑一遍「我的」摘要?有的!它提出了兩個挑剔的意見,我同意其中一個,並用我自己的話修正了。使用這些工具吧。你完全應該要求 Claude 為你的主張尋找來源,但接著你應該像檢查第一天上班的熱心實習生所找的來源一樣去檢查它們,並做好丟棄大部分(或全部)來源的準備。你完全應該要求 Claude 進行事實查核,但要預料到它會遺漏一些事實錯誤,並對其他地方進行毫無幫助的挑剔。你甚至可以要求 Claude 「幫助釐清你的思考」。但如果你「真的」只是在釐清思考,那麼你就不會使用它的文本。因為一旦你的思考清晰了,你就可以自己寫出文本,而且你應該這麼做。