tradingkey.logo

Meta lança ferramentas de IA, incluindo uma que verifica a precisão de outros modelos de IA

Cryptopolitan19 de out de 2024 às 00:35

Espera-se que isto permita que o modelo de IA faça julgamentos confiáveis ​​sobre as respostas dos modelos.

Meta quer enfrentar os desafios das imprecisões

De acordo com um artigo da Reuters , o modelo pode verificar e melhorar a precisão das respostas a problemas difíceis, como os de disciplinas como ciências, matemática e codificação, porque implica dividir problemas complexos em etapas lógicas mais pequenas.

Meta revelou que suas intenções incluem enfrentar os desafios enfrentados com outros modelos de IA como o ChatGPT, além de críticas sobre respostas desatualizadas e imprecisas.

Os pesquisadores da Meta supostamente usaram dados inteiramente gerados por IA para treinar o modelo do avaliador, removendo a contribuição humana nesse estágio.

Dois dos pesquisadores da Meta disseram à Reuters que a capacidade de usar IA para avaliar outras IA de forma confiável oferece um vislumbre de um possível caminho para a construção de sistemas autônomos que possam aprender com seus próprios erros.

“Esperamos que, à medida que a IA se torna cada vez mais sobre-humana, ela se torne cada vez melhor na verificação do seu trabalho, para que seja realmente melhor do que o ser humano médio.” Pesquisador Jason Weston.

“A ideia de ser autodidata e capaz de se autoavaliar é basicamente crucial para a ideia de chegar a esse tipo de nível sobre-humano de IA”, acrescentou.

Meta está caminhando para IA autônoma

Segundo os investigadores, os intervenientes na indústria da IA ​​veem estes agentes como assistentes digitais suficientemente inteligentes para realizar uma variedade de tarefas sem intervenção humana.

Os pesquisadores sustentam que modelos de autoaperfeiçoamento poderiam eliminar a necessidade de um processo muitas vezes caro e ineficiente que é usado hoje, chamado Aprendizado por Reforço a partir do Feedback Humano. Isso requer a contribuição de anotadores humanos, que devem ter conhecimentos especializados para rotular os dados com precisão e verificar se as respostas a consultas complexas de matemática e escrita estão corretas.

Parceiros da indústria como Google e Anthropic também publicaram artigos de pesquisa sobre o conceito de RLAIF, ou Reinforcement Learning from AI Feedback.

No entanto, ao contrário da Meta, estas outras empresas tendem a não disponibilizar os seus modelos para uso público.

Especialistas na indústria de IA opinaram que o uso de IA para verificar a IA é significativo para a construção de aplicações de IA autônomas que possam operar sem intervenção humana. Isso significa que, eventualmente, os modelos de IA aprenderão com seus próprios erros, se autocorrigirão e melhorarão sem qualquer contribuição humana.

A gigante da mídia social também lançou outras ferramentas, incluindo uma atualização de seu Segment Anything Model (SAM) de dent de imagem, uma ferramenta que acelera os tempos de geração de resposta do LLM e conjuntos de dados que podem ser usados ​​para auxiliar na descoberta de novos materiais inorgânicos.

Aviso legal: as informações fornecidas neste site são apenas para fins educacionais e informativos e não devem ser consideradas consultoria financeira ou de investimento.

Artigos relacionados

KeyAI