newsence

2% 的 ICML 論文遭直接退稿,主因為作者在評審過程中違規使用大型語言模型

Hacker News·17 天前

ICML 2026 拒絕了 497 篇論文的投稿,原因是 506 名評審違反了先前明確同意不使用大型語言模型的規定,此違規行為是透過在提交的 PDF 中嵌入隱藏浮水印偵測發現的。

背景

ICML 2026 委員會近期揭露,約有 2% 的投稿論文遭到直接退稿(Desk Rejected),原因並非論文內容造假,而是投稿者在擔任該會議的互惠審稿人時,違反了不使用大型語言模型(LLM)的承諾。委員會透過在論文 PDF 中嵌入隱形的提示詞注入指令,成功識別出 506 位審稿人直接將受污染的文本複製貼上作為審稿意見,進而對這些審稿人自己提交的論文採取懲處行動。

社群觀點

Hacker News 的討論焦點首先集中於這種偵測手法的精妙與諷刺。許多留言者指出,這本質上是一種「提示詞注入」攻擊,在其他場景中被視為安全漏洞,但在學術誠信維護上卻成了有效的執法工具。這種方法之所以能成功,反映出模型目前無法區分「數據」與「指令」的根本缺陷。社群普遍認為,這次抓到的 1% 違規審稿意見僅是冰山一角,因為該方法極其保守,只能捕捉到那些最為懶散、連 PDF 內容都直接餵給 AI 且不加修改便複製輸出的審稿人。對於那些僅利用 AI 潤飾語法或尋找論文弱點,但仍保有手動編輯過程的人,這種浮水印技術幾乎無能為力。

針對懲處的嚴厲程度,社群內部出現了顯著的分歧。部分參與者主張應對這些「學術詐欺者」實施終身禁賽,認為這能為未來的研究者樹立榜樣,維護學術界的信任根基。然而,另一派觀點引用社會學研究指出,極高強度的嚴刑峻法對於預防犯罪的成效有限,真正的關鍵在於「執法的必然性」。有留言者擔憂,許多違規者可能是面臨畢業、升遷或簽證壓力的博士生,若直接摧毀其學術生涯可能過於殘酷。他們認為這更像是一種「成癮」現象:當工具能輕易代勞時,人類的自制力往往會隨著截止日期的逼近而崩潰。

此外,討論也深入探討了機器學習研究社群日益惡化的生態。有評論感嘆,當前的學術環境已演變成一種高壓、低信任的競爭機器,研究人員在論文海中掙扎,為了生存不得不削減在社群服務(如審稿)上的投入。這種「文字生產成本降低」的現象,被類比為早期的垃圾郵件危機。當生成文字變得廉價且快速,所有文字的價值都會隨之貶低。更令人不安的預測是,如果這種帶有隱藏指令的論文被納入未來的模型訓練集,可能會導致模型在無意中學會這些操縱行為,形成一種難以預料的循環污染。

最後,有留言者提出了一個有趣的防範策略:為了避免自己因衝動而依賴 AI,他刻意使用兩台無法互相剪貼的電腦,一台專門諮詢 LLM,另一台則用於實際寫作。這種物理隔絕的方法被認為是應對「衝動控制能力下降」的有效方案,也反映出在 AI 時代,維持原創產出已需要刻意的人為干預。

延伸閱讀

  • Rao, Kumar, Lakkaraju, and Shah 的研究:ICML 偵測方法所依據的技術論文,詳細說明了如何透過隨機短語字典與浮水印控制偽陽性率。
https://blog.icml.cc/2026/03/18/on-violations-of-llm-review-policies/