top of page

¿Quién habla cuando hablas con la máquina? La sombra pública del yo digital

  • 12 ago
  • 3 Min. de lectura
ree

Por: Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México


La intimidad ya no se rompe por descuido. Se disuelve.

Se filtra por las rendijas de nuestros clics, se diluye en enlaces que compartimos con aparente inocencia, se vuelve objeto de consumo algorítmico. Hace unos días, supimos que algunos chats públicos de usuarios de ChatGPT estaban siendo indexados por Google, Bing y otros motores de búsqueda. No por error, sino por diseño. Un “experimento”, lo llamó OpenAI. Una grieta más en la promesa de la privacidad digital.


El gesto parece menor: una conversación compartida voluntariamente por un usuario que da dos clics en “compartir” y “crear enlace”. Pero el mecanismo técnico no borra la dimensión simbólica del acontecimiento: el yo conversacional, con todo su candor, sus contradicciones, sus búsquedas, sus fragilidades, ha sido puesto en vitrina. La máquina que simulaba confidencia ahora grita al mundo. ¿Qué ocurre cuando la confesión íntima al autómata se convierte en archivo público?


Lo privado como espectáculo en la era postindividual

Debemos decirlo sin eufemismos: vivimos un tiempo en el que la autenticidad ha sido reemplazada por la exposición curada. Zygmunt Bauman lo advirtió cuando hablaba del tránsito de la privacidad a la notoriedad como nueva forma de validación: “La vida privada se vuelve vida sin valor si no es compartida públicamente”. Lo que esta filtración revela no es un simple fallo de diseño, sino una lógica más profunda de nuestra época: el yo como interfaz, la conversación como mercancía, la confidencia como performance.


Este episodio nos obliga a interrogarnos, una vez más, sobre los límites ontológicos del sujeto digital. ¿Quién es el “yo” que conversa con ChatGPT? ¿El usuario en busca de ayuda profesional? ¿El adolescente que se confiesa sobre su ansiedad? ¿El troll que juega con el absurdo? ¿Qué capas de sí se activan y cuáles se suprimen cuando se habla con una entidad que “escucha” sin juzgar, pero que archiva sin piedad?


Y más aún: ¿quién lee esos mensajes cuando ya no son sólo nuestros?


La arquitectura ética del botón "Compartir"

La ética no reside en la intención del usuario, sino en la arquitectura de posibilidades que lo rodea. Un botón que permite compartir con el mundo una conversación que parece íntima no es neutral. Su diseño configura comportamientos, dirige expectativas, produce efectos.


Como Marshall McLuhan advertía, “la tecnología no es un medio pasivo, sino un entorno que configura nuestras formas de ser, de pensar y de sentir”. ¿Qué dice sobre nuestra cultura que estemos más dispuestos a hablar con una inteligencia artificial sobre nuestros miedos que con otro ser humano? ¿Y qué implica que esa “charla” pueda ser leída después por cualquiera?


Este fenómeno nos enfrenta a una nueva forma de lo que Byung-Chul Han denomina “la sociedad de la transparencia”, donde “la desaparición de la esfera privada no libera, sino que controla más eficazmente”. El control no viene desde afuera, sino que se internaliza: compartimos porque queremos, pero no siempre sabemos quién está al otro lado del espejo.


¿Privacidad o espectáculo? El dilema del sujeto digital

El experimento ha terminado, dice OpenAI. Pero la pregunta queda suspendida como una sombra: ¿cuánto de nosotros se queda pegado a la superficie de la pantalla cada vez que hablamos con una máquina? ¿Cuánto se archiva, se replica, se enlaza, se indexa? ¿Y qué nos queda cuando ni siquiera la conversación simulada puede garantizar la confidencialidad?


En la era del yo indexado, tal vez sea hora de volver a pensar el derecho a la opacidad. No como obstáculo al conocimiento, sino como espacio sagrado de la experiencia humana. Allí donde el silencio no es vacío, sino refugio.


No se trata de evitar la tecnología, sino de diseñar entornos donde lo humano no sea una función a optimizar, sino un misterio a respetar. Porque quizás, en el futuro, la pregunta ética no sea qué dijimos a la máquina… sino qué pudo la máquina decir de nosotros al mundo.

Comentarios


bottom of page