ICLR 2026 的審稿系統正被 AI “幽靈”大規模滲透:第三方檢測顯示,7.6 萬份評審意見中 21% 完全由大模型一鍵生成,另有 35% 被 AI 不同程度潤色,純人類撰寫的比例只剩 43%。這些“機器評審”平均更長、打分更高,卻頻頻出現“幻覺引用”或指責論文里根本不存在的數值錯誤,逼得作者集體在社交媒體吐槽。

面對信任崩塌,組委會發布“史上最嚴”封殺令:

- 投稿端:若論文大量使用 LLM 卻未聲明,直接 desk reject;

- 評審端:允許用 AI 輔助,但評審人對內容負全責,一旦出現虛假引用或“AI 廢話”,其本人投稿亦可能被拒;

- 舉報通道:作者可私信標記疑似 AI 評審,程序主席將在未來兩周內集中排查并公開處理結果。

會議主席坦言,AI 領域的指數級擴張讓每位評審兩周內需審 5 篇論文,負荷遠超以往,是“AI 代寫”泛濫的結構性誘因。ICLR 2026 的這場“AI 評審危機”表明:當大模型成為評審者,學術共同體必須先用規則和檢測工具,把“幽靈選票”擋在門外,否則同行評審將淪為一場無人負責的自動化實驗。