Lenguaje programado, mundo domesticado: Inteligencia artificial y los nuevos ecosistemas de desinformación
- 3 jul
- 5 Min. de lectura

Por: Dr. Jorge Alberto Hidalgo Toledo
Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
El juego envenenado del lenguaje
En los pliegues menos evidentes del lenguaje se esconde su mayor poder: no el de describir el mundo, sino el de construirlo, encuadrarlo, legitimarlo. Desde su segunda época, Ludwig Wittgenstein comprendió que el lenguaje no es un espejo del mundo sino una forma de vida. Cada palabra que pronunciamos participa de un juego del lenguaje, donde las reglas no están inscritas en piedra, sino determinadas por el uso, por el contexto, por el tejido intersubjetivo que compartimos. Pero también advirtió sus trampas: vivimos atrapados en el lenguaje, porque al mismo tiempo que nos permite habitar el mundo, lo delimita, lo recorta, lo condiciona.
Si seguimos esta lógica, debemos entender que quien controla el lenguaje, controla los juegos del lenguaje. Y quien controla los juegos del lenguaje, controla los mundos posibles. Porque el lenguaje, como sistema simbólico, moldea percepciones, narra la historia, legitima el poder. De ahí que su apropiación no sea neutral: es una operación profundamente política. No sorprende entonces que en el siglo XXI los nuevos regímenes de control ya no se basen en la censura, sino en la producción masiva de relatos —coherentes, emocionantes, virales— que sustituyen la verdad por la verosimilitud, los hechos por la narrativa, la experiencia por la ilusión.
Y en ese escenario, la inteligencia artificial no es un actor menor, sino un acelerador decisivo de los nuevos ecosistemas de desinformación.
IA: Arquitectura algorítmica de la posverdad
En su forma más visible, la inteligencia artificial aparece como una herramienta de eficiencia: organiza, traduce, responde, ilustra. Pero en su forma más profunda, es ya una infraestructura de sentido, una máquina de lenguaje capaz de generar, amplificar y diseminar discursos. Y si el lenguaje construye mundos, entonces la IA no solo produce texto: produce realidad simbólica.
Pero aquí se revela su mayor peligro: la IA simula sentido sin experiencia, genera coherencia sin mundo vivido, elabora textos y visualidades sin intersubjetividad. Como discutimos, la IA no comprende, no duda, no recuerda. Solo ejecuta. Y sin embargo, en su perfección formal, se vuelve creíble, incluso deseable. Su capacidad para producir estructuras narrativas coherentes, emocionalmente eficaces y estilísticamente impecables la convierte en un dispositivo privilegiado para la fabricación de sentido político, ideológico y propagandístico.
En un tiempo donde la posverdad ha sustituido la búsqueda de la verdad por la gestión de percepciones, la IA encuentra su sintonía más inquietante con el populismo y el totalitarismo blando. Su funcionalidad algorítmica —ajustada para complacer al usuario, adaptarse al contexto, confirmar los sesgos— refuerza las lógicas del control narrativo: silenciar el disenso, amplificar lo emocional, construir enemigos simbólicos, domesticar la complejidad.
Así, los deepfakes no solo falsifican rostros. Falsifican realidades. Las fake news no son errores accidentales, sino narrativas cuidadosamente diseñadas para emocionar y movilizar. Las malinformaciones no distorsionan la verdad, la recontextualizan estratégicamente para alterar su sentido. Y en todo esto, la IA no solo participa: optimiza, escala, automatiza, reproduce.
Como advirtió Chomsky, los medios de comunicación tradicionales ya actuaban como filtros ideológicos. Pero la IA no solo filtra: fabrica contenido, genera miles de versiones, entrena su discurso para volverse invisible, para sonar humano, para parecer neutral. Lo hace bajo el manto de la eficiencia, la personalización y la asistencia. Pero lo que está en juego no es la utilidad, sino el control del relato colectivo.
Ecosistemas de domesticación simbólica
La gran paradoja de nuestro tiempo es que, mientras celebramos la era de la hiperconectividad y la información descentralizada, nos encontramos más expuestos que nunca a formas sutiles, pero profundas, de domesticación simbólica. La IA contribuye a esto no porque tenga intención o ideología, sino porque ha sido entrenada con corpus que ya contienen las estructuras hegemónicas del discurso dominante. Los datasets son seleccionados, filtrados, editados. Los criterios de veracidad, legitimidad y relevancia no son neutros. Y por tanto, lo que la IA reproduce —por más imparcial que aparente— es una visión del mundo domesticada, plana, normalizada.
Una visión sin grietas, sin ambigüedad, sin excepción. Una visión funcional al mercado, al poder político, al algoritmo. Una visión que elimina lo poético, lo minoritario, lo marginal, aquello que no puede ser reducido a una fórmula de entrenamiento.
¿El resultado? Un pensamiento uniformado, una percepción calibrada, un relato sin fisuras. Y lo más peligroso: un lector desactivado, que ya no reconoce la diferencia entre lo producido por una mente crítica y lo generado por una red neuronal que ha aprendido a imitar el pensamiento sin comprenderlo.
Lo que está en juego: el derecho a narrar el mundo
Como bien comprendieron Foucault y Wittgenstein, el poder no se impone solo con violencia, sino con discurso. El control del lenguaje es el control de la percepción. Y hoy, ese poder ya no reside únicamente en los gobiernos o los medios, sino en los sistemas que programan las IAs, en los criterios que definen sus respuestas, en los algoritmos que jerarquizan nuestras búsquedas, en los datasets que delimitan su mundo posible.
Esto nos obliga a repensar nuestra relación con la inteligencia artificial no como una cuestión técnica, sino como una cuestión ontológica y política: ¿quién entrena los modelos? ¿quién decide qué se incluye y qué se omite? ¿qué voces se repiten y cuáles se silencian? ¿qué versiones del mundo estamos normalizando?
Y sobre todo: ¿qué pasa cuando la producción del sentido común se terceriza a una máquina que no tiene historia, ni cuerpo, ni comunidad?
La IA no es solo una herramienta: es una gramática en expansión, un nuevo marco de referencia que está reconfigurando el ecosistema de lo decible, lo pensable y lo representable. Si no lo interrogamos críticamente, si no lo habitamos con conciencia ética y pluralidad simbólica, lo que está en riesgo no es solo la verdad, sino la posibilidad misma de construir mundos distintos.
Lenguaje como resistencia: la urgencia de una semiótica crítica
En un tiempo donde la IA produce lenguaje sin experiencia, donde las narrativas se fabrican sin responsabilidad y se viralizan sin contraste, la única salida es recuperar la ética del lenguaje como gesto de encuentro, como acto político y poético.
Necesitamos volver al lenguaje encarnado, al lenguaje que duda, que tropieza, que se equivoca. Necesitamos semióticas de la lentitud, de la sospecha, de la disidencia. Necesitamos alfabetizaciones críticas que nos enseñen a leer el mundo más allá de lo que el algoritmo nos ofrece.
Porque solo desde ahí —desde esa conciencia crítica de que el lenguaje es el lugar donde se disputa el mundo— podremos resistir a la domesticación simbólica de las inteligencias artificiales y reabrir el campo de lo posible.




Comentarios