tradingkey.logo

研究人员称人工智能“粗糙”数据正在扭曲科学,并呼吁强制披露

Cryptopolitan2026年2月1日 14:24

人工智能研究领域的科学家们正面临着一个他们再也无法忽视的信誉问题。.

由于大量低质量投稿导致评审系统瘫痪,专注于人工智能研究的主要会议纷纷做出反应。.

组织者发现,大量论文和同行评审几乎都是靠人力完成的。问题不在于文风,而在于准确性。错误正悄然渗入到那些过去需要精准把握的领域。.

会议严惩低质量论文,审稿人不堪重负

研究人员早先就警告说,不受控制地使用自动写作工具可能会损害该领域。加州大学伯克利分校的人工智能研究员伊尼奥卢瓦·黛博拉·拉吉表示,情况很快就变得混乱不堪。.

“具有讽刺意味的是,人们对人工智能塑造其他领域充满热情,而实际上,由于人工智能的广泛应用,我们的领域却经历了混乱的局面,”她说。.

确凿的数据表明,这个问题已经非常普遍。斯坦福大学8月份发表的一项研究发现,高达22%的计算机科学论文都存在使用大型语言模型的情况。.

文本分析初创公司Pangram对2025年国际学习表征大会的投稿和同行评审进行了审查。该公司估计,21%的评审完全由人工智能生成,超过一半的评审使用了人工智能进行编辑等工作。Pangram还发现,9%的投稿论文超过一半的内容都是以这种方式生成的。

这个问题在11月达到了临界点。ICLR的审稿人指出一篇论文疑似由人工智能生成,但该论文的评分仍然位列前17%。1月份,检测公司GPTZero报告称,在NeurIPS(被广泛认为是该领域顶级前沿研究会议)上发表的50篇论文中,发现了超过100处自动化错误。.

随着担忧加剧,ICLR在会议召开前更新了其使用规则。未披露大量使用语言模型现在将被拒稿。提交使用自动化程序生成的低质量评估报告的审稿人将面临处罚,包括其自身论文被拒稿。

加州大学伯克利分校计算机科学教授哈尼·法里德说:“如果你发表的论文质量很差,而且内容都是错误的,那么社会为什么要信任我们科学家呢?”

纸张用量激增,而检测能力却难以跟上

根据报告,NeurIPS 在 2025 年收到了 21,575 篇论文,高于 2024 年的 17,491 篇和 2020 年的 9,467 篇。一位作者在一年内提交了 100 多篇论文,远远超过了一位研究人员的典型水平。.

俄勒冈州立大学荣誉教授、arXiv 计算机科学部主席 Thomas G. Dietterich 表示,上传到开放存储库的数量也急剧上升。.

不过,研究人员表示,造成这种情况的原因并非如此简单。一些人认为,增加的原因是更多人进入该领域。另一些人则认为,人工智能工具的大量使用是主要原因。由于目前尚无dent自动生成文本的通用标准,因此检测仍然十分困难。迪特里希表示,常见的预警信号包括捏造的参考文献和错误的数据。被发现有此类行为的作者可能会被暂时禁止在arXiv上发表文章。.

商业压力也潜藏其中。高调的演示、飙升的薪资和激烈的竞争迫使部分从业者将重心放在数量上。拉吉表示,这种炒作时刻trac了那些寻求快速见效的局外人。.

与此同时,研究人员表示,某些用途是合理的。迪特里希指出,中国论文的写作质量有所提高,这很可能是因为语言工具能够帮助更清晰地改写英文。.

如今,这个问题已超出出版领域。谷歌、 Anthropic和 OpenAI 等公司将他们的模型宣传为研究合作伙伴,声称可以加速生命科学等领域的发现。这些系统都是用学术文本进行训练的。

Farid警告说,如果训练数据中包含过多合成材料,模型性能可能会下降。过去的研究表明,大型语言模型在输入未经整理的自动化数据时,可能会崩溃成毫无意义的句子。.

法里德表示,抓取研究数据的公司有tron的动机去了解哪些论文是人撰写的。OpenAI 的科学主管凯文·韦尔则表示,这些工具仍然需要人工审核。“它可以极大地加速研究进程,”他说,“但你必须进行核查。它并不能让你免于严谨的工作。”

加入高级加密交易社区 30 天 - 通常每月 100 美元。

免责声明:本网站提供的信息仅供教育和参考之用,不应视为财务或投资建议。
Tradingkey

相关文章

KeyAI