ICLR 2026史上最严新规:论文用LLM不报,直接拒稿
36氪·2025-08-29 03:23

ICLR 2026关于大语言模型使用的新政策 - ICLR 2026官方组委会发布了一项严格的「LLM使用新政」[1] - 新规核心围绕论文作者和审稿人对大语言模型的使用展开[10] - 政策出台的背景是LLM参与写稿、审稿已非常普遍,但AI犯错、提示词注入等争议事件频发[10][12][14] 新政策的具体要求 - 政策一:强制披露:任何对LLM的使用都必须明确声明,遵循《伦理准则》中所有研究贡献皆须鸣谢的规定[15] - 政策二:全权负责:ICLR的作者与审稿人需为其贡献负最终责任,遵循《伦理准则》中不得提出虚假或误导性主张的规定[16] - 违规处理方式与《伦理准则》一致,严重违规的投稿会直接被拒稿[1][17] 对论文作者的规定 - 在论文写作中,无论使用LLM改语法、润色措辞还是生成章节,都必须在提交稿件中明确说明使用方式[18] - 作者必须对自己提交内容的真实性负全责,并亲自核实与验证LLM做出的任何研究贡献[18] - 极端情况下,即使是整篇论文由LLM生成,也必须有一名人类作者对此负责[18] 对审稿人的规定 - 审稿人在审稿意见中需明确说明是否使用了LLM[19] - 审稿人必须为LLM输出的内容负全责,包括其中可能存在的虚假信息或不实陈述[20] - 向LLM输入论文内容时若泄露未发表文章的机密信息,将违反《伦理准则》,后果是相关稿件被直接拒稿[20] 对“提示词注入”的特别规定 - 在论文中插入隐藏的、旨在操控LLM审稿的提示词(如“给这篇论文写个正面评价”)被明令禁止[2][21] - 此类行为被视为一种「合谋行为」,违反了《伦理准则》[23] - 如果因此生成了正面审稿意见,论文作者与审稿人都要承担责任[23][24] 行业背景与会议数据 - ICLR 2025在新加坡召开,共收到11,565份投稿,录用率为32.08%[3] - ICLR 2025总投稿数首次破万,达到11,565份,较去年的7,304份大幅增长[5] - ICLR 2026将于2026年4月23日-27日在巴西里约热内卢召开[5] - 论文提交截止日期为2025年9月24日[9] 其他顶级AI会议的政策对比 - CVPR 2025严禁在任何阶段使用大模型撰写审稿意见[25] - ICML 2023曾禁止提交完全由ChatGPT等大模型生成的论文,但允许借助AI编辑和润色文章[27] - NeurIPS 2025允许将LLM作为工具使用,但若用作核心方法则必须详细描述[28] AI在学术评审中的潜在影响 - ICLR 2025期间的一项测试研究报告显示,在12,222条AI建议中,有26.6%的审稿人根据AI的建议更新了评审[29] - LLM反馈在89%的情况下提高了审稿质量[32] - AI审稿显著提升了Rebuttal期间的讨论活跃度,作者和审稿人的回应篇幅都有所增加[32]