Se espera que esto permita que el modelo de IA emita juicios fiables sobre las respuestas de los modelos. Según un artículo de Reuters , el modelo puede comprobar y mejorar la precisión de las respuestas a problemas difíciles, como los de materias como ciencias, matemáticas y codificación, porque implica dividir problemas complejos en pasos lógicos más pequeños. Meta ha revelado que sus intenciones incluyen abordar los desafíos experimentados con otros modelos de IA como ChatGPT, además de las críticas sobre respuestas obsoletas e inexactas. Según se informa, los investigadores de Meta utilizaron datos enteramente generados por IA para entrenar el modelo evaluador, eliminando la aportación humana en esa etapa. Dos de los investigadores de Meta dijeron a Reuters que la capacidad de utilizar IA para evaluar otras IA de manera confiable ofrece un vistazo a un posible camino hacia la construcción de sistemas autónomos que puedan aprender de sus propios errores. "Esperamos que, a medida que la IA se vuelva cada vez más sobrehumana, sea cada vez mejor en la verificación de su trabajo, de modo que sea realmente mejor que el humano promedio". Investigador Jason Weston. "La idea de ser autodidacta y capaz de autoevaluarse es básicamente crucial para la idea de llegar a este tipo de nivel sobrehumano de IA", añadió. Según los investigadores, las partes interesadas en la industria de la IA ven a estos agentes como asistentes digitales que son lo suficientemente inteligentes como para realizar una variedad de tareas sin intervención humana. Los investigadores sostienen que los modelos de mejora personal podrían eliminar la necesidad de un proceso a menudo costoso e ineficiente que se utiliza hoy en día llamado aprendizaje por refuerzo a partir de la retroalimentación humana. Esto requiere la participación de anotadores humanos que deben tener experiencia especializada para etiquetar los datos con precisión y verificar que las respuestas a consultas complejas de matemáticas y escritura sean correctas. Compañeros de la industria como Google y Anthropic también han publicado artículos de investigación sobre el concepto de RLAIF, o aprendizaje reforzado a partir de comentarios de IA. Sin embargo, a diferencia de Meta, estas otras empresas tienden a no lanzar sus modelos para uso público. Los expertos en la industria de la IA han opinado que el uso de la IA para comprobarla es importante para crear aplicaciones de IA autónomas que puedan funcionar sin intervención humana. Significa que, con el tiempo, los modelos de IA aprenderán de sus propios errores, se autocorregirán y mejorarán sin la participación de los humanos. El gigante de las redes sociales también lanzó otras herramientas, incluida una actualización de su Segment Anything Model (SAM) de dent de imágenes, una herramienta que acelera los tiempos de generación de respuestas LLM y conjuntos de datos que pueden usarse para ayudar en el descubrimiento de nuevos materiales inorgánicos. Meta quiere abordar los desafíos de las imprecisiones
Meta avanza hacia la IA autónoma