El error de Sam Altman
- hace 26 minutos
- 3 Min. de lectura

Por Eduardo Portas Ruiz // Profesor investigador del Centro de Investigación para la Comunicación Aplicada (CICA) de la Universidad Anáhuac México
En X: @EduPortas
No pasa un día sin que un alto ejecutiva de una empresa de Inteligencia Artificial declare algo tan absolutamente desconectado de la realidad que la sociedad tiene que obligarle a regresar a tocar el piso.
El 21 de febrero le tocó a Sam Altman, mandamás de OpenAI. Aunque no es el “dueño” de esa compañía es, por mucho, el empleado más visible de ese gigante que está a punto de revelar ChatGPT 5.3, conocido informalmente como “Garlic” (ajo).
La declaración de Altman, expresada en el Express Adda durante una cumbre de IA en la India, fue la siguiente:
“Una de las cosas que siempre es injusta en esta comparación es que la gente habla de cuánta energía se necesita para entrenar un modelo de IA en relación con lo que le cuesta a un humano hacer una sola consulta de inferencia. Pero también se necesita mucha energía para entrenar a un humano. Se necesitan como 20 años de vida y toda la comida que comes durante ese tiempo antes de que te vuelvas inteligente. Por lo tanto, la comparación justa es: si le haces una pregunta a ChatGPT, cuánta energía consume una vez que el modelo ya está entrenado para responder esa pregunta, en comparación con un humano, y probablemente la IA ya ha alcanzado la paridad en términos de eficiencia energética, medida de esa manera”.

En tan solo unas frases, Altman evidenció el verdadero ethos de OpenAI, así como el espíritu que recorre buena parte de los pasillos de otras compañías de Silicon Valley.
Para este grupo, cualquier dislate humano es un atentado contra la optimización de recursos. La implicación es que esa imperfección hace, por lógica, inferior al ser humano frente a la máquina.
Esto no sería grave de no ser porque miles de personas han sido despedidas de sus trabajos en todo el mundo a causa de una y otra olas tecnológicas que las empresas realizan en aras de mejor “eficiencia operativa” con IA.
Así entonces, la declaración de Altman es, cuando menos, sumamente insensible. En el peor de los casos, francamente, inhumana.
El simple hecho de comparar los recursos cognitivos de un ser humano y la riqueza inherente que eso conlleva para esa persona y su comunidad con los bits que se despliegan es una pantalla es demencial. Es un marco de referencia que se acerca peligrosamente a todo aquello que la lucha de Occidente contra los regímenes totalitarios del siglo XX creyó haber dejado atrás.
La diferencia es que ahora no es un estado comunista o hitleriano el que exige clasificar a los individuos para poder “optimizar los recursos” en su desarrollo, sino un mandato tecnológico que no matiza contra ideologías mortales. Aquellas que solo pueden terminar con la vida en sociedad como la conocemos.
La extension lógica de las palabras de Altman conllevan esos pensamientos absolutistas en donde sofisticadas maquinarias convierten al individuo en un número sin considerar aspectos primordiales como cuerpo y alma.
La IA no tiene alma, pero sí tiene cognición, parece decirnos Altman. Y esa mentalidad la pone al mismo nivel que los seres humanos que son tanto inteligencia y ser espiritual unificado e indivisible.
Pero no para Altman, que quiere llevar a OpenAI a ser la compañía más importante de la faz de la Tierra. El peligro de ese ímpetu es perder la humanidad, algo que Altman y su grupo parecen querer hacer cada vez con mayor obviedad, en vista de la reciente baja del servicio GPT4-o, el más humano de sus chatbots, el cual ha sido sustituido con resultados poco favorables por las versiones de GPT 5.
Si bien GPT4-o era un sistema sicofántico y propenso a las alucinaciones, nadie puede negar que, hasta la fecha, haya sido el más “humano” de los chatbots de OpenAI. No es casualidad que dicho sistema haya corrido en paralelo a la mayor expansión de usuarios y ganancias de OpenAI durante un periodo relativamente largo en mundo de la tecnología, es decir, poco más de un año, como escribo en un texto reciente.
OpenAI parece querer erradicar cualquier huella de ese pasado inmediato que les ganó cuando menos 100 demandas por casos en donde diversos usuarios tomaron malas decisiones a partir de conversaciones que tuvieron con GPT-4o. Ahora quieren tener el chatbot más eficiente, mejor optimizado, que consume menor cantidad de recursos.
La gran pregunta es: ¿quieren sus usuarios lo mismo o se irán con otras compañía en donde resida un tacto humano con su principal producto y CEO?
La discusión continúa. Explora más textos sobre medios y cultura digital juvenil en:




Comentarios