tradingkey.logo

研究人員稱人工智能“粗糙”數據正在扭曲科學,並呼籲強制披露

Cryptopolitan2026年2月1日 14:24

人工智能研究領域的科學家們正面臨着一個他們再也無法忽視的信譽問題。.

由於大量低質量投稿導致評審系統癱瘓,專注於人工智能研究的主要會議紛紛做出反應。.

組織者發現,大量論文和同行評審幾乎都是靠人力完成的。問題不在於文風,而在於準確性。錯誤正悄然滲入到那些過去需要精準把握的領域。.

會議嚴懲低質量論文,審稿人不堪重負

研究人員早先就警告說,不受控制地使用自動寫作工具可能會損害該領域。加州大學伯克利分校的人工智能研究員伊尼奧盧瓦·黛博拉·拉吉表示,情況很快就變得混亂不堪。.

“具有諷刺意味的是,人們對人工智能塑造其他領域充滿熱情,而實際上,由於人工智能的廣泛應用,我們的領域卻經歷了混亂的局面,”她說。.

確鑿的數據表明,這個問題已經非常普遍。斯坦福大學8月份發表的一項研究發現,高達22%的計算機科學論文都存在使用大型語言模型的情況。.

文本分析初創公司Pangram對2025年國際學習表徵大會的投稿和同行評審進行了審查。該公司估計,21%的評審完全由人工智能生成,超過一半的評審使用了人工智能進行編輯等工作。Pangram還發現,9%的投稿論文超過一半的內容都是以這種方式生成的。

這個問題在11月達到了臨界點。ICLR的審稿人指出一篇論文疑似由人工智能生成,但該論文的評分仍然位列前17%。1月份,檢測公司GPTZero報告稱,在NeurIPS(被廣泛認爲是該領域頂級前沿研究會議)上發表的50篇論文中,發現了超過100處自動化錯誤。.

隨着擔憂加劇,ICLR在會議召開前更新了其使用規則。未披露大量使用語言模型現在將被拒稿。提交使用自動化程序生成的低質量評估報告的審稿人將面臨處罰,包括其自身論文被拒稿。

加州大學伯克利分校計算機科學教授哈尼·法裏德說:“如果你發表的論文質量很差,而且內容都是錯誤的,那麼社會爲什麼要信任我們科學家呢?”

紙張用量激增,而檢測能力卻難以跟上

根據報告,NeurIPS 在 2025 年收到了 21,575 篇論文,高於 2024 年的 17,491 篇和 2020 年的 9,467 篇。一位作者在一年內提交了 100 多篇論文,遠遠超過了一位研究人員的典型水平。.

俄勒岡州立大學榮譽教授、arXiv 計算機科學部主席 Thomas G. Dietterich 表示,上傳到開放存儲庫的數量也急劇上升。.

不過,研究人員表示,造成這種情況的原因並非如此簡單。一些人認爲,增加的原因是更多人進入該領域。另一些人則認爲,人工智能工具的大量使用是主要原因。由於目前尚無dent自動生成文本的通用標準,因此檢測仍然十分困難。迪特里希表示,常見的預警信號包括捏造的參考文獻和錯誤的數據。被發現有此類行爲的作者可能會被暫時禁止在arXiv上發表文章。.

商業壓力也潛藏其中。高調的演示、飆升的薪資和激烈的競爭迫使部分從業者將重心放在數量上。拉吉表示,這種炒作時刻trac了那些尋求快速見效的局外人。.

與此同時,研究人員表示,某些用途是合理的。迪特里希指出,中國論文的寫作質量有所提高,這很可能是因爲語言工具能夠幫助更清晰地改寫英文。.

如今,這個問題已超出出版領域。谷歌、 Anthropic和 OpenAI 等公司將他們的模型宣傳爲研究合作伙伴,聲稱可以加速生命科學等領域的發現。這些系統都是用學術文本進行訓練的。

Farid警告說,如果訓練數據中包含過多合成材料,模型性能可能會下降。過去的研究表明,大型語言模型在輸入未經整理的自動化數據時,可能會崩潰成毫無意義的句子。.

法裏德表示,抓取研究數據的公司有tron的動機去了解哪些論文是人撰寫的。OpenAI 的科學主管凱文·韋爾則表示,這些工具仍然需要人工審覈。“它可以極大地加速研究進程,”他說,“但你必須進行覈查。它並不能讓你免於嚴謹的工作。”

加入高級加密交易社區 30 天 - 通常每月 100 美元。

免責聲明:本網站提供的資訊僅供教育和參考之用,不應視為財務或投資建議。
Tradingkey

相關文章

KeyAI