
La plataforma CHATGPT de OpenAI está experimentando interrupciones en el servicio que comenzaron en las primeras horas del martes, afectando a los usuarios en múltiples continentes. La interrupción ha impactado el acceso a ChatGPT, la herramienta SORA Text-to-Video AI y las API asociadas.
Los informes de problemas comenzaron a surgir en Downetector alrededor de las 7 AM UTC, aunque OpenAI no reconoció los problemas públicamente hasta las 9 a.m., a través de su página web . En ese momento, la compañía confirmó "tasas de error y latencia elevadas" en varios servicios, afirmando que está "continuando investigando" el asunto.
A las 11 de la mañana, Openai emitió una actualización que indica que las tasas de error elevadas estaban relacionadas principalmente con 14 API, 4 incidentes dent SORA y 21 componentes de ChatGPT . La compañía calificó la interrupción del servicio como una "interrupción parcial".
Los usuarios afectados que intentaban interactuar con ChatGPT fueron recibidos con el mensaje de error: "Hmm ... algo parece haber salido mal", según lo compartido por numerosos usuarios de redes sociales.
Aunque algunos suscriptores informaron un rendimiento lento y retrasos significativos en la generación de respuestas de chatbot, otros dijeron que el servicio estaba operando normalmente para ellos.
Según las métricas de Otrage tracKing, se registraron más de 1,000 quejas solo en el Reino Unido, con casi 500 reportados en los Estados Unidos a las pocas horas de los informes iniciales.
Aproximadamente el 90% de esos informes involucraron problemas con la versión web de ChatGPT, mientras que la aplicación móvil y los servicios de API representaron menos del 10% de las quejas. Algunos usuarios también informaron problemas con las funciones de inicio de sesión y la conectividad API.
En 2025, ha habido tres principalesdentde la interrupción de Chatgpt. A principios de enero, una interrupción parcial afectó la capacidad de ChatGPT para generar contenido de imagen a través de Dall · e y ralentizó las respuestas GPT-4, pero se resolvió en cuestión de horas.
Otrodent importante ocurrió a fines de abril cuando la aplicación web de ChatGPT y los servicios de API se desconectaron de manera intermitente durante un período de dos días. En ese momento, Openai citó problemas con su proveedor de la nube, pero no dio más explicación pública más allá de confirmar una degradación del servicio en su página de estado.
La interrupción llega en un momento en que OpenAI está implementando actualizaciones en su función de modo de voz avanzado (AVM) en ChatGPT para suscriptores pagados.
En su reciente declaración , la firma de IA afirmó que las nuevas características tienen interacciones más naturales y humanas a través de la voz y ofrecen traducción del habla en tiempo real entre múltiples idiomas sin interrupción.
Las mejoras están integradas en el modelo GPT-4O de OpenAI, un sistema multimodal nativamente capaz de comprender y generar audio.
Según las notas de lanzamiento , los usuarios ahora pueden simplemente instruir a la interfaz de voz de ChatGPT para traducir entre idiomas, y continuará haciéndolo en tiempo real hasta que lo indique lo contrario.
Operai demostró por primera vez la traducción del habla en vivo en mayo de 2024 y la siguió con tecnología de interacción de voz lanzada en septiembre del mismo año.
La nueva "API real", que permite a los desarrolladores integrar la funcionalidad de voz a voz en sus aplicaciones, debutó en octubre de 2024, y se agregaron opciones de voz adicionales en abril de 2025.
"Esto cambia todo si viaja al extranjero. ChatGPT ahora puede permanecer en modo de traducción que no se necesita reinicio, solo hable. La nueva voz suena mucho más humana. Más emoción, mejor ritmo. Se está volviendo aterrador", calculó un usuario en la plataforma social X.
Aún así, según los informes de las pruebas tempranas de la función, hay algunos problemas de calidad. La compañía admitió que los usuarios pueden encontrar inconsistencias ocasionales en la producción de audio, como las irregularidades de tono y tono, dependiendo de la voz seleccionada.
" Esperamos mejorar la consistencia de audio con el tiempo ", declaró OpenAI en sus señales de comunicación. También explicó que los problemas son notables con ciertas opciones de voz y pueden afectar la experiencia del usuario en traducciones o teléfonos en vivo utilizando soporte de accesibilidad.
Tus noticias de criptografía merecen atención: Key Difference Wire te pone en más de 250 sitios superiores