El desarrollo se produce cuando la IA generativa del consumidor, que captó la atención mundial tras el lanzamiento de ChatGPT de OpenAI en noviembre de 2022 con un éxito inmediato, ha impulsado desarrollos en todo el mundo. La tecnología está ahora en el centro del sector de IA de rápido crecimiento, en el que los inversores han invertido miles de millones de dólares en nuevas empresas de IA generativa. Para Liquid, los nuevos modelos de la startup se conocen como Liquid Foundation Models (LFM) y, según la compañía, pueden ofrecer un rendimiento comparable o superior a los modelos tradicionales de lenguaje grande (LLM) como los de OpenAI, Google Cloud y AWS. Los LFM son modelos de IA livianos y de uso general que requieren menos datos y potencia de cálculo. Los modelos utilizan extrañamente enfoques matic descubiertos al estudiar el cerebro de un gusano, según Crunchbase. Según SiliconAngle , los modelos de Liquid se basan en el concepto de "redes neuronales líquidas". Esta clasificación es diferente de los modelos generativos basados en transformadores previamente entrenados o GPT que admiten chatbots populares como ChatGPT y Gemini de Google LLC. "En Liquid, nuestra misión es construir los sistemas de IA más capaces y eficientes en todas las escalas". Ramin Hasani, director ejecutivo de Liquid. "Desde nuestros inicios, hemos demostrado la escalabilidad de nuestra tecnología al lanzar modelos basados en texto, presentar LFM multimodales y colaborar con socios clave para mostrar el impacto en el mundo real", agregó Hasani. Según SiliconAngle, la startup de IA ofrece tres tamaños de modelo, es decir, LFM-1B, un modelo denso de 1.300 millones de parámetros para dispositivos como teléfonos móviles, LFM-3B, un modelo de 3.100 millones de parámetros optimizado para desarrollos de vanguardia, y el LFM. -40B Mezcla de Expertos, diseñada para abordar tareas complejas. Liquid AI dijo que los LFM tienen una huella de memoria reducida en comparación con la arquitectura GPT, que es más sustancial para entradas largas, por ejemplo, cuando se procesan documentos o videos extremadamente largos. El modelo LFM-3.1B, según Liquid AI, utilizó significativamente menos memoria que otros modelos pequeños cuando se implementó que modelos como Gemma 2 2B-it de Google LLC o Llama3.2 3B de Meta. Ahora, con esta financiación, Liquid AI se ha unido a una asociación estratégica con AMD para reforzar su capacidad de optimizar sus modelos básicos con las unidades de procesamiento gráfico, central y neuronal del fabricante de chips. La financiación también ayudará a la startup con sede en Cambridge, Massachusetts, a desarrollar LFM personalizados para industrias como la tron de consumo, la biotecnología, las telecomunicaciones, los servicios financieros y el comercio electrónico. Liquid AI se fundó en 2023. Un sistema paso a paso para iniciar su carrera en Web3 y conseguir trabajos criptográficos bien remunerados en 90 días. Liquid AI quiere desarrollar modelos más eficientes
La asociación con AMD permitirá a Liquid AI optimizar sus LFM