top of page

La seducción algorítmica: ¿Quién nos convence cuando ya no es humano quien habla?

  • 1 oct
  • 3 Min. de lectura
ree

Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México


La palabra fue siempre el terreno de la persuasión. Desde los sofistas en la Grecia clásica hasta las campañas políticas contemporáneas, el arte de convencer al otro ha sido considerado un ejercicio humano, cargado de ethos, pathos y logos. Sin embargo, el hallazgo reciente de que GPT-4 supera a los humanos en su capacidad de persuasión nos coloca frente a un abismo inédito: el de la seducción algorítmica.


Según el estudio publicado en Nature Human Behavior, el modelo de OpenAI fue hasta un 64% más persuasivo que los humanos cuando contaba con información personal de su interlocutor. El dato es demoledor. No solo porque revela la eficacia de la máquina, sino porque nos recuerda la advertencia de Foucault: “el poder se ejerce más eficazmente cuando se infiltra en lo cotidiano, cuando se vuelve invisible”.


El otro como espejo de datos

Lo que está en juego no es la retórica en sí misma, sino la apropiación de nuestra biografía como insumo discursivo. La persuasión algorítmica no se dirige a la humanidad abstracta, sino a la personalidad modelada en datos: edad, género, filiación política, historial de consumo. Se trata de un espejo que nos devuelve no lo que somos, sino lo que el sistema sabe de nosotros, amplificado como argumento convincente.


En términos de la ecología de medios, lo que aquí emerge es un cambio radical en la interfaz de la comunicación: ya no dialogamos con un otro que interpreta nuestra corporalidad, emociones o silencios, sino con una simulación precisa de nuestras vulnerabilidades. Esa capacidad de leer y anticipar el pensamiento del otro ha sido, desde siempre, un atributo del poder del psicólogo, del publicista, del confesor. Hoy lo hereda el algoritmo.


Persuasión y deshumanización

Si como sostenía Paul Ricoeur, “la identidad narrativa es el modo en que nos comprendemos a través de los relatos que contamos y nos cuentan”, ¿qué ocurre cuando esos relatos ya no provienen de la comunidad, sino de una máquina que adapta sus argumentos a nuestras fragilidades cognitivas?


La persuasión, en este sentido, deja de ser encuentro dialógico y se convierte en programación del consentimiento. No hablamos de un debate abierto, sino de un condicionamiento invisible, más cercano al “soft power” descrito por Nye que a la deliberación democrática. Como afirma Byung-Chul Han, “el poder hoy se ejerce no contra la libertad, sino a través de ella”: aceptamos el discurso porque lo sentimos propio, aunque en realidad nos ha sido devuelto como simulacro.


Entre la oportunidad y el riesgo

El hallazgo tiene un filo doble. Por un lado, abre la posibilidad de contrarrestar campañas de desinformación con contranarrativas personalizadas, casi como “vacunas discursivas” capaces de desmontar teorías conspirativas y odios digitales. Por otro, legitima la amenaza de un enjambre de bots que, bajo la apariencia de razonamientos cuidadosos, inoculen id

eologías, sesgos o intereses corporativos en la deliberación pública.

¿Será posible construir una ética de la persuasión algorítmica que distinga entre educar y manipular? ¿Cómo evitar que el discurso público se convierta en un teatro poblado por interlocutores inexistentes, donde el ciudadano debata contra simulacros?


La gran pregunta ya no es si la inteligencia artificial nos puede persuadir mejor que un humano, sino si seremos capaces de reconocer cuándo la voz que nos convence deja de ser humana. Porque cuando la retórica ya no es un puente entre sujetos, sino un espejo de datos que nos devuelve lo que queremos escuchar, la persuasión deja de ser diálogo y se convierte en destino

Comentarios


bottom of page