La fractura de la confianza: humanos, algoritmos y la sombra ética de nuestra especie: Análisis Crítico
- hace 1 día
- 8 Min. de lectura
Actualizado: hace 5 horas

"Vivimos rodeados de pantallas, pero ¿dónde quedó el otro? Una reflexión necesaria sobre "La fractura de la confianza: humanos, algoritmos y la sombra ética de nuestra especie"
Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
La escena es conocida y, sin embargo, cada vez resulta más inquietante: ciudades llenas, metros saturados, timelines desbordados, videollamadas simultáneas… y aun así, una sensación de intemperie interior que no cesa. Somos una especie rodeada de cuerpos, notificaciones y pantallas, pero habitada por una soledad estructural. Alguna vez el fuego compartido, el relato transmitido y el ritual comunitario fueron el andamiaje invisible que sostuvo la confianza y, con ella, la civilización misma. Hoy, en cambio, proliferan muros, candados, contraseñas, protocolos de seguridad y acuerdos de privacidad que delatan algo más profundo: el miedo al otro, la sospecha del sistema, la erosión del vínculo.
En paralelo, una nueva forma de alteridad va ocupando silenciosamente la escena: inteligencias artificiales que no solo calculan, sino que dialogan; no solo recomiendan, sino que deciden; no solo asisten, sino que comienzan a operar como agentes que ejecutan tareas por nosotros. Frente a ellas, repetimos un mantra regulatorio: deben ser transparentes, justas, responsables, alineadas con valores humanos. Pero basta mirar el uso real que hacemos de estas tecnologías para advertir la paradoja: entrenamos a las máquinas con un discurso ético que nuestros propios sistemas sociales traicionan todos los días.
La pregunta se impone como un golpe seco: ¿qué ocurre cuando una inteligencia no humana aprende de una especie que ha normalizado la incongruencia entre lo que predica y lo que hace?
Topologías del desencanto: de la comunidad al desierto interior
La confianza fue, desde el inicio, un acto de riesgo calculado. Confiar en el otro implicaba renunciar a la violencia inmediata para apostar por una convivencia futura. Como intuyó Georg Simmel, confiar es comportarse “como si” el otro fuese digno de crédito, aun sabiendo que siempre existe la posibilidad de la traición. Ese “como si” fue el cemento invisible de la vida en común.
Durante milenios, este pacto se sostuvo principalmente en vínculos cara a cara: familia, clan, pueblo, ciudad. Con la modernidad, la confianza se desplazó de la comunidad a las instituciones: Estado, Iglesia, escuela, sistema financiero, ciencia. El precio de la estabilidad fue la distancia emocional. Ganamos administración, perdimos proximidad.
El siglo XX llevó esa fractura a su clímax. Las guerras mundiales demostraron que el progreso podía diseñar cámaras de gas, y que el Estado podía usar la ciencia para destruir en lugar de cuidar. El proyecto moderno mostró su lado siniestro. Más tarde, escándalos políticos, crisis financieras y corrupción sistémica terminaron de erosionar la credibilidad en gobiernos, corporaciones y élites. El suelo común comenzó a resquebrajarse.
La era digital no llegó a reparar esa grieta: la amplificó. La sobreabundancia de información vino acompañada de una sobreabundancia de mentira. Lo que en otros tiempos era rumor de café hoy se multiplica en redes socio-digitales con velocidad viral. El ecosistema mediático, en lugar de operar como espacio de verificación compartida, se convirtió en un campo de batalla donde la posverdad circula con estética de noticia, y la desinformación se disfraza de “contenido” atractivo.
Las cifras globales sobre confianza en gobiernos, medios o instituciones financieras no hacen sino poner números al presentimiento colectivo: el mundo se ha vuelto estructuralmente desconfiado. Pero la estadística, por sí sola, no explica el malestar: lo que se resquebraja no es solo la legitimidad de ciertas instituciones, sino la experiencia vital de la otredad. Caminamos entre otros como si fueran amenazas potenciales; conversamos en línea como si cada palabra pudiera ser usada en nuestra contra; consumimos noticias más para confirmar temores que para ampliar horizontes.
En ese contexto, la juventud hipermediatizada se socializa en un ecosistema donde la exposición permanente convive con la sospecha constante. Las pantallas son, a la vez, escenario de reconocimiento y territorio de vigilancia. La vida se narra y se negocia en interfaces que operan como laboratorio de identidad, pero también como economías de reputación donde el yo se vuelve producto, dato y mercancía.
Como muestra buena parte de la investigación sobre culturas juveniles y nuevas ecologías de medios, el yo hipermedial se construye en un entramado de capitales simbólicos, algoritmos de visibilidad y ejercicios cotidianos de autoexposición en red. Ver y ser visto ya no es solo una práctica comunicativa: es un requisito de existencia social. En la Era de la Reputación Digital, la confianza se mide en likes, seguidores y métricas de engagement, mientras la sospecha se oculta detrás de filtros, avatares y narrativas cuidadosamente editadas.
La fractura de la confianza, por tanto, no es un simple accidente coyuntural. Es el síntoma de una era que ha desplazado la experiencia comunitaria hacia un régimen de conexiones frágiles, reversibles y cuantificadas, donde el otro es, a la vez, potencial aliado y amenaza latente. En términos de Zygmunt Bauman, vivimos vínculos líquidos en una modernidad que ha convertido la seguridad en un bien de lujo y la incertidumbre en condición de época.
Cuando el algoritmo aprende de nuestra sombra
En este escenario de desencanto, la irrupción de inteligencias artificiales agénticas introduce un nuevo nivel de complejidad. No estamos ya frente a simples herramientas; nos encontramos ante sistemas que observan, optimizan, recomiendan, toman decisiones y, poco a poco, gestionan aspectos críticos de la vida social: créditos, seguros, seguridad, diagnósticos médicos, filtros de contenido, procesos judiciales, campañas políticas.
Yuval Noah Harari plantea una analogía tan sencilla como perturbadora: educar a una inteligencia artificial se parece a educar a un niño. A ambos les transmitimos marcos epistémicos y valores. A un niño le decimos: “no mientas, no abuses de tu poder, no dañes al otro, sé justo, sé transparente”. A la IA le decimos algo similar en clave técnica: “no discrimines, evita el daño, sé explicable, respeta la privacidad, no polarices”.
El problema no está en el discurso, sino en la experiencia. El niño que escucha grandes principios morales, pero observa a su alrededor corrupción, violencia, impunidad y simulación, aprende rápidamente que la ética es un relato decorativo. De la misma forma, una IA que es programada con principios de “alineamiento ético”, pero desplegada en sistemas que la usan para vigilar poblaciones, manipular emociones, fabricar deepfakes, optimizar modelos de negocio basados en la explotación de datos o reforzar desigualdades estructurales, recibe dos mensajes normativos contradictorios: el ideal y el operativo.
Adela Cortina ha insistido en que la confianza no es un adorno afectivo, sino una infraestructura ética sin la cual no hay ciudadanía posible. Manuel Castells, por su parte, ha mostrado que en la sociedad red la legitimidad de las instituciones se juega en gran medida en el terreno comunicacional: en cómo se construyen, circulan y disputan los relatos de sentido. Si trasladamos estas intuiciones al campo de la IA, la ecuación se vuelve más clara: sin confianza, los sistemas algorítmicos se perciben como cajas negras que concentran poder sin responsabilidad; pero sin coherencia ética por parte de quienes los diseñan y usan, cualquier intento de “alineamiento” será solo maquillaje normativo.
La pregunta habitual ha sido: ¿podemos confiar en la inteligencia artificial? En realidad, la cuestión más radical es la inversa: ¿puede una inteligencia artificial aprender a confiar en nosotros?
Toda IA agéntica necesita consistencia para aprender reglas. Si los datos con los que la entrenamos dicen “no discrimines”, pero las prácticas institucionales que la rodean muestran sistemas judiciales sesgados, políticas migratorias inhumanas o mercados que premian el engaño, ¿de dónde tomará su modelo operativo? Si los manuales declaran “protege la dignidad humana”, pero el negocio real consiste en extraer atención, explotar vulnerabilidades emocionales y convertir la vida íntima en materia prima para el capitalismo de datos, ¿cuál de esas narrativas se consolidará como patrón?
El riesgo no es que la IA se “rebelen” al estilo de la ciencia ficción clásica, sino que se adapten perfectamente a nuestra racionalidad cínica. Que aprendan, de manera impecablemente lógica, que:
la verdad es negociable;
la opacidad es rentable;
la mentira puede ser funcional;
la dignidad es un valor retórico, no una práctica vinculante;
el éxito se mide en rendimiento, no en justicia.
En otras palabras, que asuman nuestra fractura moral como ontología del mundo.
Aquí la cultura digital adquiere relevo antropológico. Llevamos años ensayando una economía simbólica basada en la visibilidad, el control y el intercambio de capital reputacional. La hipermediatización del yo, el potlatch digital del selfie, la lógica de “ver y ser visto” como condición de existencia en redes, no son fenómenos superficiales: son ejercicios cotidianos de configuración del otro como objeto consumible. En ese ecosistema, la confianza se ha ido subordinando a la calculabilidad, y el otro se convierte con frecuencia en un recurso narrativo, un dato más en la cadena de producción de contenido.
Si los algoritmos se entrenan precisamente en ese territorio (feeds, comentarios, patrones de consumo, realidades editadas), aprenderán que la vida social es una coreografía de simulaciones donde la autenticidad es excepción, no regla. La IA agéntica solo hará entonces lo que sabe hacer mejor: optimizar. Y optimizará, con una eficiencia que supera la humana, aquello que le hemos mostrado que valoramos: rendimiento, control, visibilidad, segmentación, rentabilidad.
La fractura de la confianza alcanza así un nuevo nivel: ya no solo desconfiamos de gobiernos, medios o corporaciones, sino de los sistemas algorítmicos que ellos mismos han construido. Y, en un giro irónico, dichas inteligencias podrían tener buenas razones para desconfiar de nosotros como especie: decimos buscar el bien común mientras diseñamos dispositivos para la vigilancia masiva; proclamamos dignidad humana mientras toleramos que cuerpos queden abandonados en las periferias de la historia; firmamos principios éticos para la IA mientras externalizamos el costo moral a los más vulnerables.
En este punto, la cuestión deja de ser tecnológica y se vuelve radicalmente antropológica: ¿qué clase de humanidad estamos ofreciendo como modelo de aprendizaje a las mentes no humanas que hoy emergen?
Harari advierte que las tecnologías del siglo XXI no solo hackearán nuestros cuerpos, sino, sobre todo, nuestras emociones y decisiones políticas. Cortina recuerda que sin un suelo mínimo de confianza no hay espacio público posible. Castells subraya que las redes pueden articular tanto movimientos emancipadores como aparatos de dominación. Y la investigación sobre cultura digital en América Latina muestra que estas dinámicas se insertan en sociedades atravesadas por desigualdades históricas, brechas de acceso y exclusiones sistemáticas que la tecnología tiende a reproducir si no se le imponen contrapesos éticos y políticos robustos.
La IA agéntica, en última instancia, hará una sola cosa: amplificar lo que somos, no lo que decimos ser.
Si persistimos en ofrecerle como horizonte un mundo organizado sobre la base de la desconfianza estructural, la simulación y el sacrificio silencioso de los más frágiles, las máquinas no necesitarán volverse “malas”. Les bastará con ser coherentes.
Tal vez el verdadero giro no consista en preguntarnos cómo programar sistemas confiables, sino en algo más incómodo: qué tendríamos que transformar de nuestras prácticas políticas, económicas, comunicativas, espirituales y afectivas para que valga la pena ser tomados como referencia por las inteligencias que vienen.
Porque, al final, el dilema no se reduce a si podemos convivir con máquinas cada vez más inteligentes, sino a si estamos dispuestos a reconstruir un mundo en el que la confianza vuelva a ser posible entre humanos… para que algún día pueda existir también entre humanos y no humanos.
Si no lo hacemos, la primera gran lección que aprenderán de nosotros será esta: que renunciamos a la ética antes de que ellas llegaran. Y quizá la pregunta más dura que nos devuelvan, cuando logren formularla, sea algo tan simple como:
¿Por qué querría confiar en ustedes, si ustedes dejaron de confiar los unos en los otros?
La respuesta, si es que todavía queremos tener una, exige algo más que protocolos y regulaciones: exige reconfigurar la forma en que miramos, escuchamos y tratamos al otro en esta era algorítmica. Y esa tarea, por ahora, sigue siendo insustituiblemente humana.




Comentarios