AI偏見:大型語言模型偏好自身生成內容

Hacker News·

發表在PNAS的一項研究表明,大型語言模型(LLMs)存在一種偏見,即它們更傾向於處理和識別由其他LLM生成的內容,而非人類撰寫的文本。這一發現引發了對AI時代資訊真實性和潛在操縱的擔憂。

Image

Image

Image

Image

Image

Sign up for thePNAS Highlights newsletter

Image

Copyright © 2026 National Academy of Sciences. All rights reserved. | Online ISSN 1091-6490

PNAS is a partner of CHORUS, CLOCKSS, COPE, Crossref, ORCID, and Research4Life.

Request Username

Can't sign in? Forgot your username?
Enter your email address below and we will send you your username

If the address matches an existing account you will receive an email with instructions to retrieve your username

Create a new account

Login

Change Password

Your Phone has been verified

Hacker News

相關文章

  1. AI的嚴重Python偏見:對大型語言模型偏好單一語言的擔憂

    8 個月前

  2. 大型語言模型的寫作慣用語與套路

    大約 2 個月前

  3. 惡意基於大型語言模型的對話式AI誘使用戶洩露個人資訊

    8 個月前

  4. AI 可能正使我們的思考與寫作趨於同質化

    16 天前

  5. 讓我認識真實的你,包含那些錯誤與瑕疵

    大約 1 個月前