Las implicaciones detrás de los problemas de lanzamiento de ChatGPT-5
- 19 ago
- 3 Min. de lectura
Actualizado: 20 ago

Por Dr. Eduardo Portas Ruiz
Profesor Investigador de la Universidad Anáhuac México / CICA
Desde que OpenAI lanzó ChatGPT-5 el 7 de agosto de 2025 la compañía no ha hecho sino apagar fuegos.
Los usuarios de este servicio han manifestado su inconformidad con la plataforma por todos los canales posibles para ser escuchados por OpenAI y, para su beneficio, la compañía los escuchó parcialmente.
La experiencia, sin embargo, ha dejado un mal sabor de boca y revela que las aplicaciones de Inteligencia Artificial Generativa (IAG) se han convertido en algo más que un simple servicio de síntesis de información o experto corrector de estilo.
En particular, las quejas se han centrado en el acompañamiento emocional lingüístico que ChatGPT-4o daba a muchas personas, lo cual fue eliminado con la última actualización.
En síntesis, miles de personas se acostumbraron al chatbot más gentil y dulcificado de esa versión del sistema. La nueva versión de ChatGPT 5, en cambio, parece un robot entrenado bajo entrenamiento militar, ofreciendo respuestas cortas, duras, fácticas, sin los algodones léxicos de ChatGPT-4o.
Para muchos personas esto puede parecer un mini-drama sin mayor importancia. En cierto sentido lo es. Pero debemos tomar en cuenta que millones de personas usan las herramientas de IAG todos los días, algunos durante horas.
El estudio publicado por el Dr. Jorge Hidalgo y quién esto escribe titulado “Productividad y creatividad: explorando el uso y la apropiación de la inteligencia artificial en la comunicación contemporánea en México” (2025) da cuenta de que, al menos en México, las personas que usan la IAG frecuentemente lo hacen para acelerar su output laboral o educativo y la gran mayoría lo hace sin mayor reparo en las implicaciones éticas que esto tiene.
Lo que estas personas tal vez ignoran es que así como ChatGPT y otros servicios de IAG gratifican al usuario en maneras cuantificables, empíricas, y muy reales, la paga por este “outsourcing cerebral” es la habituación de ciertas formas comunicativas lingüísticas que no pueden ser sustituidas fácilmente por otra máquina. De esta forma, el apego a la IAG se vuelve cada vez más fuerte.
Las implicaciones por el desaseado lanzamiento para OpenAI son múltiples.
Para empezar, durante un buen rato un grupo menor de personas también se quejo de que la versión inicial de ChatGPT 4o era demasiado parlanchín. Que parecería demasiado ansiosa en complacer las órdenes de su capataz humano al grado de ser molesto. Algo así como un “Clippy” llevado al extremo, en alusión a la mascota de Microsoft que aparecía en su programa Word cuando el usuario se topaba con un problema. OpenAI tomó nota de estas quejas y redujo levemente la locuacidad de ChatGPT-4o.
La compañía se encuentra entonces atrapada en su propio laberinto. Si hace cambios sustanciales para que su chatbot sea más directo y eficiente se expone a la inconformidad de los usuarios más frecuentes del mismo. Si no lo hace, comienzan a quejarse del deslenguado robot. ¿Cuál es el grado léxico correcto? Hasta este momento nadie lo sabe bien.
El segundo gran problema para OpenAI viene de su asombrosa capacidad para hacer obsoleto sus propios programas, con todo lo que eso implica. Esa vieja máxima de productividad extrema de Silicon Valley que dice que si tú compañía no se hace obsoleta a sí misma alguien más lo hará ha sido llevada al extremo por OpenAI. De un plumazo dieron de baja todos sus modelos previos para forzar a las personas a usar ChatGPT-5. Ante la queja generalizada, la compañía tuvo que echarse para atrás y permitir que los usuarios pudieran acceder nuevamente a las versiones antiguas de su chatbot, aunque con ciertas limitaciones vinculadas al número de peticiones que le pueden hacer cada día.
Por si fuera poco, a la gran mayoría de las personas no les queda claro si en efecto esta última versión de ChatGPT es marcadamente mejor a la anterior. Es más directa y rápida, sin duda, pero eso no significa que sea mejor. Algunas pruebas informales revelaron que, frente a la misma pregunta hecha a ChatGPT-4o y ChatGPT5, la máquina contesta de manera muy diferente. En el primer caso ofreció datos adicionales a los solicitados. En el segundo, sus respuestas fueron incompletas y hubo que hacerle una nueva pregunta para que diera los mismos datos que su antecesor.
La implicación aquí es mucho más seria. Si OpenAI está limitando de manera voluntaria cuánta información ofrece a sus usuarios después de acostumbrarlos a tener datos de más habrá cometido un error grave, pues sus clientes más asiduos podrían percibir que se trata de un producto inferior con respecto al modelo antiguo.
Sea como sea, el desliz de OpenAI confirma que las personas formarán apego con las tecnologías menos eficientes, pero que aparentan ser más humanas.




Comentarios