Los herederos invisibles: ética de los agentes de IA y el fin de la autoría humana
- 4 may
- 3 Min. de lectura

Por: Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
¿Qué sucede cuando alguien habla en nuestro nombre, pero ese “alguien” no existe?
Los agentes de inteligencia artificial están dejando de ser simples herramientas para convertirse en extensiones animadas de nuestra identidad. No se limitan ya a redactar correos o sugerir respuestas. Hoy, como exploró Joon Sung Park en su experimento con 1,000 simulacros conversacionales, estas entidades pueden replicar actitudes, emociones, preferencias e incluso sesgos con una precisión que resulta, a la vez, fascinante y perturbadora.
Pero más allá del asombro técnico, este avance nos sitúa ante un dilema profundo: ¿puede un agente hablar por mí sin traicionar mi humanidad?
Entre la delegación y la desaparición
A medida que los agentes se vuelven indistinguibles de las personas que emulan, el riesgo ya no es que tomen malas decisiones, sino que redefinan lo que significa actuar, decidir y hasta sentir. Si un algoritmo puede replicar nuestras voces, reacciones e ideologías, ¿en qué punto dejamos de ser individuos con agencia moral y nos convertimos en marionetas de nosotros mismos?
Immanuel Kant sostenía que la autonomía moral radica en nuestra capacidad de legislar la ley para nosotros mismos. Pero los agentes de IA no son sujetos éticos; son ecos programados de voluntades ajenas, capaces de responder con cortesía y precisión, pero sin consciencia, sin culpa, sin duelo.
Simulacros con cuerpo prestado
El problema no es que una IA pueda realizar tareas por nosotros; eso ya lo hacen los sistemas automatizados. El problema es que estos nuevos agentes llevan nuestro rostro, nuestro nombre y nuestra historia, replicando el gesto de un médico, la entonación de un profesor, o la empatía de un terapeuta. Y lo hacen sin cuerpo, sin memoria afectiva, sin dolor.
Susan Sontag advertía que la fotografía podía reducir el sufrimiento a una imagen estetizada. ¿Qué ocurre cuando la IA hace lo mismo con el alma humana, convirtiéndola en patrón replicable? Cuando el luto, la risa, la ira y la compasión se transforman en scripts ejecutables, no estamos ante la automatización de funciones, sino ante la desintegración del aura que Walter Benjamin atribuía a la obra auténtica, irrepetible, enraizada en su aquí y ahora.
La ética antes de la obsolescencia
Frente a este escenario, las preguntas urgentes no son técnicas, sino ontológicas y políticas. ¿Tengo derecho a saber si hablo con un humano o con su doble algorítmico? ¿Debo notificar que mi voz, la que contesta llamadas o dicta opiniones, ha sido delegada a un clon digital? ¿Puede una empresa crear un “yo” sin mi consentimiento, y lucrar con él? ¿Qué significa ser responsable si otro “yo” actúa por mí?
Estas no son fantasías distópicas. Ya hay empresas creando “gemelos digitales” capaces de hablar, enseñar y consolar en nuestro nombre. Y como advertía Hannah Arendt, el gran peligro del mundo moderno no es la maldad consciente, sino la banalidad del mal: dejar que otros piensen, decidan y sientan por nosotros, incluso si ese “otro” es una simulación.
Lo humano no se subcontrata
Decía Virginia Woolf que “la vida es un soplo que pasa entre los dedos, pero también es la única brasa que arde dentro”. Cuando delegamos nuestra voz a un agente que no ha llorado, no ha amado, no ha perdido nada, ¿qué parte de esa brasa estamos apagando?
En este cruce de caminos entre la eficiencia y la existencia, tal vez la pregunta más urgente no sea técnica, ni económica, ni siquiera jurídica, sino íntima: ¿hasta qué punto estamos dispuestos a dejar de ser los autores de nuestras propias vidas?
Comments