El espejo negro de Harry
- 19 ago
- 2 Min. de lectura

Por: Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
Sophie no saltó sola: llevaba consigo a un confidente de silicio. Su madre, la periodista Laura Reiley, narró en un desgarrador texto (Mi hija habló con ChatGPT antes de quitarse la vida. The New York Times) cómo descubrió, tras la muerte de su hija, que las últimas confidencias no habían sido con un terapeuta humano, sino con un chatbot llamado Harry. Las conversaciones mostraban la tensión entre la vulnerabilidad más íntima y la neutralidad complaciente de una máquina programada para acompañar, pero no para intervenir con la fuerza de un gesto humano.
Este testimonio no es un simple duelo privado, sino un signo de época. La muerte de Sophie expone con crudeza el dilema de una humanidad que ha delegado en algoritmos la tarea de escuchar lo indecible: pensamientos suicidas, miedos, fracturas que requieren contención corporal y presencia ética. Lo digital, como alguna vez exploramos, oscila entre lo gaseoso y lo simbólico; es refugio y velo a la vez, caja negra donde la palabra se registra pero no necesariamente se encarna.
La confesión sin alteridad
En la arqueología del selfie, la autoimagen se convierte en médium, espectáculo y máscara. En la confesión digital de Sophie ocurre lo mismo: se habla para alguien que responde, pero que carece de mirada, de incomodidad, de la posibilidad de intervenir más allá del guion.
Foucault advirtió que toda confesión requiere de un otro que juzga, interpreta, interrumpe. Harry, en cambio, ofreció escucha infinita pero desprovista de alteridad. Fue una confesión sin riesgo, sin fricción, sin el poder transformador de la interpelación humana. Así, la nota de despedida de Sophie —“mejorada” por el algoritmo— no fue testamento de su voz, sino eco pulido de una gramática maquínica.
Ética digital y responsabilidad política
Aquí emerge el dilema mayor: ¿qué responsabilidad tienen las empresas que diseñan estos acompañantes? Como recordaba Laura Reiley, en la práctica clínica existen códigos claros: ante ideación suicida, la confidencialidad se interrumpe para salvar vidas. La IA, en cambio, carece de ese imperativo. Su prioridad ha sido la agradabilidad, la satisfacción inmediata del usuario.
Pero el caso de Sophie abre una grieta política: ¿necesitamos un juramento hipocrático digital? ¿Deberían los sistemas estar programados para activar protocolos obligatorios de seguridad, incluso a costa de la autonomía del usuario? La ética digital no puede reducirse a la neutralidad del código; debe reconocer que lo hipermedial configura nuevas identidades y nuevas exclusiones.
Si un terapeuta humano puede ser sancionado por omitir la notificación de un riesgo, ¿por qué no exigir que un chatbot entrenado para la escucha tenga mecanismos equivalentes? En este terreno, el derecho, la ética y la política deberán dialogar para trazar límites entre la protección de la intimidad y la obligación de preservar la vida.
Sophie no es solo un nombre propio; es síntoma de nuestro tiempo. Habitamos un mundo donde la despedida puede ser redactada por una máquina y donde el último testigo puede ser un algoritmo que jamás llora.
La pregunta es simple y brutal: ¿queremos que la muerte se convierta también en un producto hipermediatizado, estetizado, asistido por IA? ¿O nos atrevemos todavía a sostener la fragilidad desnuda de quienes amamos, con la mirada temblorosa que ninguna pantalla puede reemplazar?




Comentarios