Investing.com — A pesar de las preocupaciones de los inversores sobre aranceles y el gasto excesivo en infraestructura de IA, UBS (SIX:UBSG) ve que la demanda de cómputo para inferencia de IA generativa (genIA) está lista para expandirse dramáticamente en todos los sectores.
Según el banco, la IA sigue siendo resistente a la incertidumbre macroeconómica, con las principales empresas tecnológicas estadounidenses reafirmando sus planes de gastos de capital (capex) y destacando que la demanda de cómputo continúa superando la oferta.
UBS argumenta que la inferencia —el proceso de ejecutar modelos de IA para generar respuestas— se convertirá en el principal impulsor de las futuras necesidades de cómputo de IA, superando al entrenamiento.
"La cantidad de computación que necesitamos como resultado de la IA agéntica y el razonamiento es fácilmente 100 veces más de lo que pensábamos que necesitábamos el año pasado", dijo el CEO de Nvidia (NASDAQ:NVDA), Jensen Huang, citado en una nota de UBS.
El banco hace eco de este sentimiento, señalando la aparición de métodos más complejos como el razonamiento de Cadena de Pensamiento (CoT) como una fuente clave de creciente intensidad computacional.
En sus proyecciones, UBS establece cuatro categorías de casos de uso de genIA: chatbots, IA empresarial, IA agéntica e IA física.
Se espera que los chatbots como ChatGPT vean un aumento en la demanda de cómputo de 10 exaFLOP/s en 2024 a 200 exaFLOP/s para 2030.
Para aplicaciones empresariales, como detección de fraude y resumen de contratos, se prevé que las necesidades de inferencia crezcan aún más rápido: de 15 a 440 exaFLOP/s en el mismo período.
El crecimiento más dramático se espera de la IA agéntica, que incluye soporte autónomo al cliente y automatización de flujos de trabajo. UBS estima que la demanda de este segmento podría subir a 14 zetaFLOP/s para 2030, lo que marcaría un "enorme salto desde las necesidades actuales, que estimamos en cientos de exaFLOP/s", dijo la firma en la nota.
La IA física, que incluye robótica y vehículos autónomos, podría eventualmente requerir cómputo en el rango de yottaFLOP/s a medida que evoluciona para replicar aspectos de la cognición humana.
La capacidad de cómputo GPU instalada hoy se estima en alrededor de 4,000 exaFLOP/s (aumentando a 5,000 con las Unidades de Procesamiento Tensor (TPU) de Google (NASDAQ:GOOGL)), pero UBS señala que gran parte permanece subutilizada.
Limitaciones como los cuellos de botella en la memoria GPU significan que el uso real a menudo no alcanza su potencial nominal, lo que hace improbable que la base actual pueda satisfacer la demanda futura, especialmente para IA agéntica y física.
"La inferencia a menudo está limitada por la memoria GPU, lo que significa que los FLOP/s reales que un chip puede entregar están muy por debajo de su máximo teórico—con limitaciones de memoria que resultan en chips operando a tan solo el 25% de sus FLOP/s nominales", explica la nota.
"Incluso con estas limitaciones, la capacidad disponible podría ser suficiente para las necesidades actuales de chatbots, pero está muy por debajo de lo que se requerirá para IA agéntica y física, que demandarán potencia de cómputo de un orden de magnitud diferente", añade.
En general, UBS concluye que el papel en expansión de la inferencia en la adopción de IA, combinado con los crecientes requisitos de hardware, respalda la inversión continua en infraestructura de IA.
Para los inversores, el banco ve "cualquier retroceso en acciones vinculadas a nuestras selecciones de ’IA’ y ’Energía y recursos’ como puntos de entrada atractivos".
Este artículo fue traducido con la ayuda de inteligencia artificial. Para obtener más información, consulte nuestros Términos de Uso.