tradingkey.logo

Pesquisadores afirmam que a "imprecisão" da IA ​​está distorcendo a ciência e defendem a divulgação obrigatória dos dados

Cryptopolitan1 de fev de 2026 às 14:24

Os cientistas que trabalham no mundo da pesquisa em IA estão enfrentando um problema de credibilidade que não podem mais ignorar.

Grandes conferências focadas em pesquisa de IA reagiram após os sistemas de revisão ficarem sobrecarregados com trabalhos submetidos de baixa qualidade.

Os organizadores observaram um aumento acentuado no número de artigos e revisões por pares produzidos com pouco esforço humano. A preocupação não é com o estilo, mas sim com a precisão. Erros estão se infiltrando em áreas onde a precisão costumava ser fundamental.

Conferências intensificam medidas contra a sobrecarga de revisores com artigos de baixa qualidade

Pesquisadores alertaram desde o início que o uso descontrolado de ferramentas de escrita automatizada poderia prejudicar a área. Inioluwa Deborah Raji, pesquisadora de IA da Universidade da Califórnia, Berkeley, afirmou que a situação rapidamente se tornou caótica.

“Há uma certa ironia no fato de haver tanto entusiasmo em relação à IA moldando outros campos quando, na realidade, nosso campo passou por essa experiência caótica devido ao uso generalizado da IA”, disse ela.

Dados concretos mostram a extensão do problema. Um estudo da Universidade de Stanford, publicado em agosto, constatou que até 22% dos artigos de ciência da computação apresentavam indícios de uso excessivo de modelos de linguagem.

A Pangram, uma startup de análise de texto, analisou artigos submetidos e avaliações por pares na Conferência Internacional sobre Representações de Aprendizagem de 2025. A empresa estimou que 21% das avaliações foram totalmente geradas por IA, enquanto mais da metade utilizou a tecnologia para tarefas como edição. A Pangram também descobriu que 9% dos artigos submetidos tiveram mais da metade do seu conteúdo produzido dessa forma.

A questão atingiu um ponto crítico em novembro. Revisores da ICLR sinalizaram um artigo suspeito de ter sido gerado por IA, embora ainda estivesse classificado entre os 17% melhores com base nas pontuações dos revisores. Em janeiro, a empresa de detecção GPTZero relatou mais de 100 erros automatizados em 50 artigos apresentados na NeurIPS, amplamente considerada o principal evento para pesquisa avançada na área.

Com o aumento das preocupações, a ICLR atualizou suas regras de uso antes da conferência. Artigos que não divulgarem o uso extensivo de modelos de linguagem agora serão rejeitados. Revisores que enviarem avaliações de baixa qualidade criadas com automação correm o risco de sofrer penalidades, incluindo a rejeição de seus próprios artigos.

Hany Farid, professor de ciência da computação na Universidade da Califórnia, Berkeley, disse: "Se você publica artigos de baixíssima qualidade e que estão simplesmente errados, por que a sociedade deveria confiar em nós como cientistas?"

O volume de documentos impressos aumenta vertiginosamente, enquanto o sistema de detecção luta para acompanhar

Segundo o relatório, a NeurIPS recebeu 21.575 artigos em 2025, um aumento em relação aos 17.491 de 2024 e aos 9.467 de 2020. Um dos autores submeteu mais de 100 artigos em um único ano, um número muito superior ao que é típico para um pesquisador.

Thomas G. Dietterich, professor emérito da Universidade Estadual do Oregon e presidente da seção de ciência da computação do arXiv, afirmou que os envios para o repositório aberto também aumentaram acentuadamente.

Ainda assim, os pesquisadores afirmam que a causa não é simples. Alguns argumentam que o aumento se deve ao maior número de pessoas entrando na área. Outros dizem que o uso intensivo de ferramentas de IA desempenha um papel importante. A detecção continua difícil porque não existe um padrão comum paradenttextos automatizados. Dietterich disse que sinais de alerta comuns incluem referências inventadas e figuras incorretas. Autores flagrados fazendo isso podem ser banidos temporariamente do arXiv.

A pressão comercial também está presente. Demonstrações de grande repercussão, salários exorbitantes e concorrência acirrada levaram parte do setor a priorizar a quantidade. Raji afirmou que momentos de grande alardetracpessoas de fora em busca de resultados rápidos.

Ao mesmo tempo, pesquisadores afirmam que alguns usos são legítimos. Dietterich observou que a qualidade da escrita em artigos da China melhorou, provavelmente porque ferramentas de linguagem ajudam a reescrever o inglês com mais clareza.

A questão agora vai além da publicação. Empresas como Google, Anthropic e OpenAI promovem seus modelos como parceiros de pesquisa que podem acelerar descobertas em áreas como as ciências da vida. Esses sistemas são treinados com textos acadêmicos.

Farid alertou que, se os dados de treinamento incluírem muito material sintético, o desempenho do modelo pode ser prejudicado. Estudos anteriores mostram que grandes modelos de linguagem podem entrar em colapso e gerar dados sem sentido quando alimentados com dados automatizados não selecionados.

Farid afirmou que as empresas que coletam dados de pesquisas têmtronincentivos para saber quais artigos foram escritos por humanos. Kevin Weil, chefe de ciência da OpenAI, disse que as ferramentas ainda exigem verificações humanas. "Pode ser um acelerador enorme", disse ele. "Mas você precisa verificar. Isso não o isenta do rigor."

Junte-se a uma comunidade premium de negociação de criptomoedas gratuitamente por 30 dias - normalmente US$ 100/mês.

Aviso legal: as informações fornecidas neste site são apenas para fins educacionais e informativos e não devem ser consideradas consultoria financeira ou de investimento.

Artigos relacionados

KeyAI