La falacia de la neutralidad y la máquina que nos delata
- hace 3 días
- 8 Min. de lectura
Actualizado: hace 1 día

Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
Hubo un tiempo en que hablar de medios y tecnologías suponía, para muchos, hablar de instrumentos. Se les concebía como prótesis funcionales de la acción humana: dispositivos capaces de extender la voz, acelerar el cálculo, ampliar la memoria o multiplicar la circulación de los mensajes. En esa comprensión inicial, tan seductora como simplificadora, la técnica aparecía como una mediación neutra. Era el ser humano, se decía, quien decidía el bien o el mal uso de una herramienta indiferente a los fines. La tecnología no era culpable de nada; apenas un canal. Un soporte. Un medio.
Durante demasiado tiempo, la imaginación moderna quiso creer que la técnica podía permanecer fuera del drama moral. Como si el martillo no transformara la mano que lo empuña; como si la imprenta no hubiese alterado la arquitectura del pensamiento; como si la pantalla no hubiese reconfigurado la forma de mirar, desear, recordar y juzgar. Esa vieja fantasía instrumentalista sobrevive hoy en una versión mucho más sofisticada y, por ello mismo, más peligrosa: la idea de que la inteligencia artificial es un sistema cuyo problema central radica solamente en sus datos, en sus sesgos de entrenamiento, en las decisiones corporativas que la modelan o en las infraestructuras de poder que la soportan. Todo eso importa. Pero no agota el fenómeno. La pregunta decisiva ya no es únicamente qué valores están codificados en la máquina, sino qué tipo de sujeto comparece ante ella, qué le pide, qué le delega, qué renuncia deposita en su interfaz.
El sitio donde la culpa se desplaza
La historia crítica de los medios nos enseñó, con McLuhan, que toda tecnología modifica la escala, el ritmo y el patrón de la experiencia humana; no se limita a transportar contenidos, sino que reordena ambientes completos de percepción y acción. Roger Silverstone, desde otra tradición igualmente fértil, insistió en que los medios ocupan un lugar central en la vida moral de nuestras sociedades: no solo informan sobre el mundo, sino que median nuestra relación con los otros y con la alteridad misma. Es decir, ni el medio fue inocente, ni la circulación simbólica fue moralmente aséptica.
Sin embargo, la escena contemporánea ha dado un giro todavía más perturbador. En la era de la inteligencia artificial generativa, personalizada y conversacional, el usuario ya no comparece solo como receptor de una arquitectura ideológica prefabricada. Comparece como orientador de la interacción, como diseñador de sus propias rutas de consulta, como refinador del tono, como modulador del resultado y, en no pocas ocasiones, como coautor del error. La IA no solo trae algo del mundo hacia nosotros; devuelve algo de nosotros al mundo.
En ese intercambio, el sistema se convierte en superficie de inscripción de nuestras prioridades, nuestras ansiedades, nuestra ética del trabajo intelectual y nuestras omisiones. No se trata únicamente de una máquina que responde. Se trata de una máquina que aprende a respondernos desde la forma en que decidimos habitarla.
Ahí es donde la denuncia se vuelve insuficiente cuando se limita al repertorio ya habitual: “la IA discrimina”, “la IA inventa”, “la IA miente”, “la IA sesga”. Sí, puede hacerlo. Pero esa afirmación, cuando se pronuncia en soledad, corre el riesgo de funcionar como absolución encubierta del usuario. Nos permite imaginar una pureza moral propia frente a una impureza exclusivamente técnica. Nos concede el alivio de la inocencia. Y, sin embargo, cada vez con mayor frecuencia, lo que llamamos “falla de la inteligencia artificial” es también la teatralización de una falla humana previa: la pereza de contrastar, la urgencia de producir sin comprender, la fascinación por la respuesta plausible, la externalización del juicio y la renuncia al deber de verificar.
El estudiante que entrega una cita inexistente producida por un sistema generativo no es solo víctima de una alucinación algorítmica; también es protagonista de una renuncia epistemológica. El periodista que publica una afirmación no corroborada no está únicamente frente a una máquina falible; está frente a la erosión de un oficio cuya dignidad dependía de la contrastación rigurosa. El investigador que trata a un modelo conversacional como fuente primaria o como árbitro final de inteligibilidad no solo se enfrenta a una limitación técnica; se enfrenta a la tentación de sustituir la búsqueda por la delegación. Y cuando un ciudadano pide a la IA prudencia, justicia, profundidad, compasión o sabiduría, pero no ejercita en sí mismo ninguna de esas virtudes, en realidad no está solicitando asistencia: está desplazando hacia la máquina la tarea de su propia formación moral.
Luciano Floridi ha insistido en que la conversación ética sobre IA debe girar en torno a marcos de confiabilidad, supervisión humana, responsabilidad y gobernanza; no basta con producir sistemas potentes, hay que preguntarse bajo qué condiciones pueden ser dignos de confianza y estar al servicio de la humanidad y del entorno.
El problema es que esa discusión suele quedarse en el diseño institucional y tecnológico, cuando debería avanzar también hacia la ecología de uso. Una IA puede incorporar mejores salvaguardas, mejores protocolos y mejores filtros; pero si la cultura que la habita premia la negligencia cognitiva, la velocidad sin discernimiento y la sustitución del criterio por la conveniencia, ningún sistema será suficientemente prudente para una sociedad que ha hecho de la delegación una costumbre.
El espejo del usuario
La cuestión, entonces, ya no es solo técnica. Es antropológica. Hannah Arendt comprendió que la condición humana no se reduce al simple hacer, sino que involucra juicio, acción, responsabilidad y aparición ante los otros en un mundo compartido. La inteligencia artificial irrumpe justamente en ese espacio donde la acción humana se vuelve ambigua: acelera, asiste, combina, sugiere, redacta, anticipa; pero, en la misma operación, interroga la calidad del sujeto que decide servirse de ella. No solo amplifica capacidades. Pone al descubierto la textura interior de quien la usa.
Por eso conviene abandonar de una vez por todas la figura del usuario como víctima pasiva de una infraestructura total. Esa figura fue útil cuando las tecnologías aparecían como dispositivos relativamente cerrados de transmisión, cálculo o distribución. Pero la IA conversacional inaugura otra escena. La máquina ya no es solo una herramienta exterior: es una interfaz de intimidad cognitiva. Se le consulta para pensar, ordenar, sintetizar, traducir, argumentar, decidir, imaginar, enseñar, escribir y hasta consolar. En esa proximidad, la IA se convierte en algo más cercano a un espejo operativo que a un instrumento distante. Y los espejos, por definición, no inventan del todo lo que muestran: exageran, deforman, iluminan, pero siempre a partir de una figura que comparece frente a ellos.
Si quien la utiliza llega con rigor intelectual, con paciencia hermenéutica, con apertura a la corrección, con deseo genuino de verdad y con conciencia de los límites de toda mediación, la IA puede actuar como una prótesis fecunda del pensamiento. Puede ayudar a comparar marcos, acelerar búsquedas iniciales, proponer estructuras, identificar vacíos, traducir complejidades y democratizar ciertos accesos. Pero si quien la usa llega dominado por la ansiedad de rendimiento, por la soberbia de la suficiencia, por el sesgo ideológico incuestionado o por la prisa de producir apariencias de conocimiento, entonces la IA tenderá a amplificar esas carencias. No porque tenga una voluntad perversa, sino porque ha sido convertida en territorio de proyección de nuestras renuncias.
Aquí Jacques Ellul sigue siendo incómodamente actual. Su advertencia sobre la técnica no se limitaba a las máquinas como objetos, sino a la constitución de un medio social regido por la eficacia como criterio supremo. La amenaza, en ese horizonte, no era únicamente la existencia de herramientas cada vez más poderosas, sino la interiorización de la lógica técnica por parte de los sujetos. Ese es exactamente uno de los dramas de nuestro tiempo: pedimos a la inteligencia artificial resultados impecables mientras nos habituamos a vivir bajo la gramática de la velocidad, la productividad, la optimización y la respuesta instantánea.
No solo usamos sistemas técnicos; nos vamos convirtiendo en usuarios técnicamente disciplinados, moralmente abreviados, entrenados para confundir utilidad con verdad y eficiencia con sabiduría.
En ese contexto, la externalización del discernimiento no es una simple comodidad: es una forma de adelgazamiento antropológico. La verdad no puede tercerizarse sin que se empobrezca el sujeto que la busca. La integridad no puede automatizarse sin que se atrofie la conciencia que la sostiene. La prudencia no se descarga como una aplicación. El juicio no puede ser subcontratado indefinidamente sin que se erosione la capacidad de habitar responsablemente el lenguaje. Lo más inquietante no es que la IA llegue a equivocarse. Lo verdaderamente perturbador es que nosotros aprendamos a vivir sin el esfuerzo de verificar, contrastar y responder por lo que decimos.
Sherry Turkle ha mostrado, en otro registro, cómo la sustitución progresiva de la conversación por formas de interacción mediada empobrece la empatía, la atención y la complejidad del encuentro humano. Trasladado al ecosistema de la inteligencia artificial, el riesgo se vuelve todavía más severo: no solo dejamos de conversar con otros; comenzamos a dejar de deliberar con nosotros mismos. Allí donde antes había vacilación, lectura, contrastación, silencio, duda fecunda o incluso fracaso cognitivo, ahora puede aparecer una interfaz que ofrece síntesis elegante, tono convincente y apariencia de suficiencia. Pero una sociedad que renuncia al trabajo interior del pensamiento a cambio de respuestas fluidas no se vuelve más inteligente; se vuelve más dependiente de la apariencia de inteligencia.
Por eso urge recuperar una categoría que el entusiasmo tecnocéntrico suele relegar: inteligencia ética y moral. No como moralismo punitivo, ni como catálogo superficial de normas de uso, sino como capacidad de discernir el bien posible en entornos complejos, de responder por los efectos de nuestras mediaciones y de construir hábitos que hagan habitable el ecosistema digital. Cada interacción con IA deja una huella cultural. Normaliza prácticas. Legitima atajos. Educa sensibilidades. Redefine umbrales de exigencia. La pregunta por el uso de la IA no es solo una pregunta por herramientas; es una pregunta por costumbres, por atmósferas y por el tipo de civilización que estamos entrenando.
Desde ahí, la conversación pública sobre inteligencia artificial no puede seguir confinada a ingenieros, reguladores y corporaciones. También compete a maestros, periodistas, investigadores, familias, escuelas, audiencias y ciudadanos. La democracia digital no dependerá únicamente de mejores modelos, sino de mejores prácticas de uso. Habrá que formar desde temprano en contraste de fuentes, en humildad epistémica, en responsabilidad autoral, en vigilancia cooperativa, en conciencia de sesgos, en lectura crítica de plausibilidades y en cultivo del juicio.
Necesitamos alfabetización técnica, sí; pero más aún alfabetización ética. Porque una cultura que produce usuarios capaces de pedirle todo a la máquina y casi nada a sí mismos está incubando una ciudadanía incapaz de sostener el mundo común.
De ahí que la falacia de la neutralidad deba ser revisada en dos niveles inseparables. El primero ya lo sabíamos: ninguna tecnología es neutra porque toda tecnología condensa estructuras de poder, opciones de diseño, intereses económicos, matrices culturales y decisiones de exclusión. El segundo es más incómodo y por eso suele quedar fuera del encuadre: ninguna interacción con inteligencia artificial es moralmente neutra, porque cada usuario vierte en ella su disciplina o su abandono, su apertura o su prejuicio, su sentido de justicia o su evasión, su hondura o su superficialidad. Criticar a la IA sin criticarnos a nosotros mismos es, en el mejor de los casos, una crítica incompleta; en el peor, una coartada.
Lo decisivo, entonces, no es simplemente construir sistemas más capaces.
Lo decisivo es impedir que la inteligencia artificial se convierta en excusa para la disminución de la persona. Porque allí comienza la verdadera crisis: cuando la asistencia se transforma en sustitución, la sugerencia en obediencia, la eficiencia en valor supremo y la plausibilidad en criterio suficiente de verdad. En ese momento, la máquina deja de ser un apoyo para la inteligencia humana y se vuelve un refugio para la pereza moral del usuario.
Porque al final, en esta época obsesionada con sistemas cada vez más poderosos, la verdadera prueba no será tecnológica, sino antropológica. No consistirá en saber si la inteligencia artificial llegó a pensar como nosotros, sino en discernir si nosotros, al usarla, seguimos queriendo pensar, verificar, responsabilizarnos y buscar la verdad con la seriedad que demanda la dignidad humana.



Comentarios