2025年nips和cvpr哪个好(cvpr和cvpr workshop)

nips和cvpr哪个好(cvpr和cvpr workshop)p id 35CQU7AK 自 2022 年底 ChatGPT 发布以来 有人注意到了一个趋势 strong ChatGPT 越来越多地被用于论文的同行评审中 strong p p id 35CQU7AL 有几个明显的迹象 AI 工具撰写的审稿意见往往 p

大家好,我是讯享网,很高兴认识大家。




讯享网

                <p id="35CQU7AK"> 自2022年底ChatGPT发布以来,有人注意到了一个趋势:<strong>ChatGPT越来越多地被用于论文的同行评审中</strong>。</p><p id="35CQU7AL"> 有几个明显的迹象。AI工具撰写的审稿意见往往<strong>语气正式、文字冗长</strong>,这通常与大语言模型(LLMs)的写作风格有关。例如,现在同行评审中诸如“commendable [值得称赞]”和“meticulous [一丝不苟]”之类的词比2022年之前<strong>多出十倍</strong>。AI生成的审稿意见往往也是<strong>肤浅而笼统</strong>的,通常没有针对该论文的特定意见,且缺乏参考文献。<br/></p><p id="35CQU7AM"> 来自美国斯坦福大学的研究者检查了2023-2024年约5万篇计算机领域会议论文的同行评审。根据写作风格和某些单词出现的频率,<strong>估计7-17%的句子是由LLMs撰写</strong>。<br/></p><p class="f_center"> <img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1107%2F22a88d01j00smkpbu006fd200o1007wg00o1007w.jpg&thumbnail=660x2147483647&quality=80&type=jpg"/><br/></p><p id="35CQU7AO"> 原文链接:https://proceedings.mlr.press/v235/liang24b.html</p><p id="35CQU7AP"> <strong>时间不够可能是审稿人使用LLMs撰写审稿意见的原因之一</strong> 。在截止日期前提交的评审意见中,LLMs撰写的比例更高。这种趋势估计还会加剧。<br/></p><p id="35CQU7AQ"> LLMs的使用应该限于某些任务,如<strong>纠正语法、回答与论文相关的简单问题、识别某些信息</strong>。如果不负责任地随意使用,LLMs可能会破坏科学的完整性。因此,学术界亟需制定规范,以指导如何在同行评审过程中合理使用这些模型。<br/></p><p id="35CQU7AR"> 首先,必须认识到,<strong>目前的LLMs无法取代审稿人</strong>。尽管LLMs具有一定的能力,但它们无法进行深入的科学推理,有时还会进行无意义的回复。《NEJM AI》的一项研究显示,<strong>研究者普遍抱怨LLMs的审稿意见缺乏深度,尤其是在评审论文的研究方法时</strong>。此外,LLMs也很容易忽视论文中的错误。<br/></p><p class="f_center"> <img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1107%2F91bc78c6j00smkpbv006id200o1008hg00o1008h.jpg&thumbnail=660x2147483647&quality=80&type=jpg"/><br/></p><p id="35CQU7AT">  原文链接:https://ai.nejm.org/doi/10.1056/AIoa2400196</p><p id="35CQU7AU"> LLMs可能适合某些场景。对于审稿人,AI聊天机器人可以帮助在提交审稿意见前提供建议,使得模糊的建议更具操作性;或者对论文中可能被审稿人遗漏的部分进行强调。对于编辑,<strong>LLMs可以检索和总结相关论文,以帮助他们了解研究背景,并验证论文的提交是否遵循了清单</strong>(例如,确保正确报告统计数据)。这些环节使用AI的风险相对较低,如果实施得当,可以节省编辑和审稿人的时间。<br/></p><p id="35CQU7AV"> 不过,即使在执行低风险的信息检索和任务总结时,LLMs也可能会犯错。因此,LLMs输出的内容应被视为起点,而不是最终答案。用户仍<strong>应对LLMs输出的内容进行检查</strong>。<br/></p><p id="35CQU7B0"> 期刊和会议可能会尝试使用AI算法来检测同行评审和论文中LLMs的使用情况,但其效果有限。此类检测可以突出显示AI生成的文本,但很容易产生误报。例如,<strong>将非英语母语研究者撰写的文本标记为“AI生成”</strong>。检测器通常很难区分LLMs的合理使用(如论文润色)和不恰当使用(如使用聊天机器人撰写整篇报告)。<br/></p><p id="35CQU7B1"> 归根结底,防止AI主导同行评审的**方法可能是在此过程中促进更多的互动。<strong>OpenReview</strong>(网址:https://openreview.net/)等平台鼓励审稿人和作者进行匿名互动,通过多轮讨论解决问题,目前已被一些会议和期刊采用。<br/></p><p id="35CQU7B2"> 在学术写作和同行评审中使用LLMs是无法阻止的。为应对这一转变,期刊和会议应制定明确的指南。<strong>期刊至少应要求审稿人披露在审稿过程中是否以及如何使用LLMs</strong>。还需要适应AI时代的创新型交互式同行评审平台,从而能够限制LLMs的任务范围。与此同时,还需开展更多研究,以探索AI如何更精准地协助完成同行评审任务。建立规范将有助于确保LLMs既有利于编辑、审稿人和作者,又不损害科学完整性。</p><p id="35CQU7B5">本文整理自:https://www.nature.com/articles/d41586-024-03588-8</p><p class="f_center"><img src="http://dingyue.ws.126.net/2024/1107/1b94833bg00smkpbv00bfd200u000gdg00u000gd.gif"/><br/></p>

讯享网
小讯
上一篇 2025-06-11 19:12
下一篇 2025-06-16 08:38

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/201486.html