大型語言模型在招聘篩選中傾向於選擇由自身生成的履歷,而非人類或其他模型撰寫的版本

大型語言模型在招聘篩選中傾向於選擇由自身生成的履歷,而非人類或其他模型撰寫的版本

Hacker News·

這項研究提供了演算法招聘中 AI 自我偏好的實證,揭露了大型語言模型在篩選時,會一致性地偏好由自身生成的履歷,而非人類或其他模型所撰寫的內容。

背景

這篇研究探討了大型語言模型(LLM)在自動化招聘篩選中展現出的「自我偏好」現象。研究指出,當 LLM 被用於評估履歷時,它們傾向於給予由同類模型生成的履歷更高的評價,而非人類撰寫或其他模型生成的內容。這種演算法偏見可能對未來的就業市場公平性產生深遠影響,特別是在越來越多企業依賴 AI 進行初步篩選的背景下。

社群觀點

Hacker News 的討論圍繞著這種偏好現象的本質及其對求職策略的影響。部分網友認為,這與其說是偏見,不如說是 LLM 在優化特定的評分函數。由於 LLM 生成的文字通常充滿強烈的語氣、標準化的企業用語(Corpo Speak)以及極其工整的語法結構,這些特徵正好符合 LLM 判斷「高品質」的啟發式標準。有留言者分享個人經驗指出,當他將履歷交給 ChatGPT 修改後,面試邀約率顯著提升,這暗示了在 AI 篩選時代,使用 AI 撰寫履歷已成為一種實質上的「履歷搜尋引擎優化」(Resume SEO)。

然而,這種現象引發了關於「資訊繭房」與「平庸化」的擔憂。反對者認為,LLM 偏好自己的產出是因為其訓練數據的統計特性,這會導致履歷內容變得冗長、重複且缺乏人類語言的細微差別與隱含資訊。如果企業完全依賴 AI 篩選,最終可能導致只有「AI 產出的廢話」能進到人類主管手中,形成一種從生成到篩選皆由機器主導的惡性循環。更有網友諷刺地將此描述為「平庸之作(Slop)聘請平庸之作來產出更多平庸之作」。

此外,社群中也出現了對研究方法的質疑。有讀者指出,該研究是將人類履歷的摘要刪除後讓 AI 重寫,再讓另一個 AI 評估該摘要,這種實驗設計可能誇大了實際影響,因為它並非在真實的完整履歷環境下進行對比。儘管如此,討論仍延伸到了法律與制度層面。有法律背景的網友提到,在歐盟 GDPR 第 22 條下,求職者有權要求了解是否完全由自動化決策進行篩選,並要求「具意義的人類介入」。這反映出技術社群對於 AI 成為人類職業生涯仲裁者的不安,擔心這將加劇資源不平等,使負擔不起高級模型的人在競爭中處於劣勢。

最後,部分資深招聘人員與技術人員認為,履歷制度本身在技術領域已逐漸失效。由於信噪比過低,履歷已無法準確反映候選人的實際能力。他們建議與其在 AI 篩選的遊戲中博弈,不如推動標準化的技術能力測驗,將招聘重點從「誰更會寫 AI 喜歡的履歷」轉向「誰具備真正的專業技能」。

延伸閱讀

  • GDPR Article 22:關於自動化個人決策(包括剖析)的法律條文,保障數據主體不完全受自動化決策影響的權利。

Hacker News

相關文章

  1. 偏見機器人:AI招聘經理青睞AI生成的履歷應徵者

    8 個月前

  2. 我真的很懷念 AI 出現之前的寫作時代

    大約 1 個月前

  3. AI 產生的低劣內容令我感到恐懼

    3 個月前

  4. 大型語言模型的寫作慣用語與套路

    大約 2 個月前

  5. AI偏見:大型語言模型偏好自身生成內容

    3 個月前