tradingkey.logo

研究者らはAIの「ずさんな情報」が科学を歪めていると述べ、義務的な開示を要求

CryptopolitanFeb 1, 2026 2:24 PM

AI研究の世界で活動する科学者たちは、もはや無視できない信頼性の問題に直面している。.

AI研究に重点を置く主要な会議は、質の低い投稿によってレビューシステムが詰まってしまったことを受けて反応を示した。.

主催者たちは、ほとんど人間の手を借りずに作成された論文や査読が急増していることに気づきました。懸念されるのは文体ではなく、正確性です。かつては精度が重要だったところに誤りが入り込んでいるのです。.

低品質の論文が査読者を圧倒し、学会は取り締まりを強化

研究者たちは、自動執筆ツールの無制限な使用がこの分野に損害を与える可能性があると早くから警告していた。カリフォルニア大学バークレー校のAI研究者、イニオルワ・デボラ・ラジ氏は、状況は急速に混乱に陥ったと述べた。.

「AIが他の分野を形作るという熱意がこれほど高まっている一方で、実際には私たちの分野はAIの広範な利用によってこのような混乱を経験してきたという事実には、少々皮肉な面もあります」と彼女は語った。.

確かなデータは、この問題がどれほど広範囲に及んだかを示しています。8月に発表されたスタンフォード大学の研究では、コンピュータサイエンス論文の最大22%に大規模言語モデルの使用の兆候が見られました。.

テキスト分析スタートアップのパングラムは、2025年に開催された国際学習表現会議(ICR)において、提出論文と査読論文を審査しました。その結果、査読論文の21%はAIによって完全に生成されており、半数以上は編集などの作業にAIが利用されていると推定されました。また、提出された論文の9%は、そのコンテンツの半分以上がAIによって生成されていることも判明しました

この問題は11月に転換点を迎えました。ICLRの査読者は、AIによって生成された疑いのある論文にフラグを立てました。この論文は、査読者の評価では依然として上位17%にランクされていました。1月には、検出会社GPTZeroが、この分野における先端研究の最高峰の場と広くみなされているNeurIPSで発表された50本の論文に100件以上の自動エラーが含まれていると報告しました。.

懸念が高まる中、ICLRは会議前に利用規則を更新しました。言語モデル、今後は却下されることになります。自動化によって作成された低品質の評価を提出した査読者は、自身の論文が却下されるなど、ペナルティを受けるリスクがあります。

カリフォルニア大学バークレー校のコンピューターサイエンス教授、ハニー・ファリド氏は「まったく間違った低品質の論文を発表しているのなら、なぜ社会は科学者である私たちを信頼するのでしょうか?」と語った。

紙の量が急増する一方で、検出が追いつかない

報告書によると、NeurIPSは2025年に21,575件の論文を受理した。これは2024年の17,491件、2020年の9,467件から増加している。1人の著者が1年間で100件以上の論文を投稿しており、これは1人の研究者が投稿する数としては一般的な水準をはるかに上回っている。.

オレゴン州立大学名誉教授でarXivのコンピュータサイエンス部門の議長を務めるトーマス・G・ディートリッヒ氏は、オープンリポジトリへのアップロードも急増したと述べた。.

それでも、研究者たちは原因は単純ではないと指摘する。増加の原因は、この分野に参入する人が増えたことにあると主張する者もいれば、AIツールの多用が大きな役割を果たしていると主張する者もいる。自動テキストをdentするための共通基準がないため、検出は依然として困難だ。ディートリッヒ氏によると、よくある警告サインとしては、捏造された参考文献や不正確な図表などが挙げられる。こうした行為が発覚した著者は、arXivから一時的に追放される可能性がある。.

商業的なプレッシャーも背景にある。注目を集めるデモ、高騰する給与、そして熾烈な競争により、業界の一部は量重視へと追いやられている。ラジ氏によると、tracにおける誇大宣伝は、外部の業者が迅速な結果を求めることを促すという。.

同時に、研究者たちは、一部の使用法は正当であると主張している。ディートリッヒ氏は、中国の論文の質が向上したと指摘した。これはおそらく、言語ツールが英語をより明確に書き直すのを助けているためだろう。.

この問題は今や出版だけにとどまりません。Google、 Anthropic 、OpenAIといった企業は、生命科学などの分野における発見を加速させる研究パートナーとして、自社のモデルを宣伝しています。これらのシステムは学術テキストで訓練されています。

ファリド氏は、訓練データに合成素材が多すぎるとモデルの性能が低下する可能性があると警告した。過去の研究では、大規模な言語モデルは、キュレーションされていない自動データを入力すると、意味不明な状態に陥る可能性があることが示されている。.

ファリド氏は、研究データをスクレイピングする企業には、どの論文が人間によって書かれたものかを知るtron動機があると述べた。OpenAIの科学部門責任者であるケビン・ワイル氏は、ツールには依然として人間によるチェックが必要だと述べた。「スクレイピングは大きな加速装置になり得る」と彼は述べた。「しかし、チェックは必要だ。厳密さを免除されるわけではない」

プレミアム暗号通貨取引コミュニティに 30 日間無料で参加できます (通常は月額 100 ドル)。

免責事項:本サイトで提供する情報は教育・情報提供を目的としたものであり、金融・投資アドバイスとして解釈されるべきではありません。

関連記事

KeyAI