La verdad rota: los motores de búsqueda con IA y la crisis de confianza informativa
- 2 may
- 3 Min. de lectura

Por: Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
¿Qué sucede cuando los motores de búsqueda ya no buscan, sino imaginan?
El último estudio del Tow Center for Digital Journalism de Columbia Journalism Review nos deja frente a un espejo inquietante: más del 60% de las respuestas generadas por buscadores basados en IA, como ChatGPT Search, Grok 3 o Perplexity, contienen errores graves de atribución, enlaces falsos o contenido inventado. En un mundo donde uno de cada cuatro estadounidenses ya recurre a modelos generativos como fuente de información, la desinformación automatizada se vuelve una amenaza sistémica.
Este no es solo un problema técnico: es una transformación epistemológica. Porque cuando el instrumento destinado a acercarnos a la verdad prefiere no callar antes que errar, lo que se erosiona no es solo el dato, sino el pacto de credibilidad entre tecnología y sociedad.
La mentira plausible como norma de interacción
Los investigadores identificaron una tendencia consistente: las IAs rara vez admiten no saber. Prefieren construir una respuesta “verosímil”, aunque sea falsa, antes que dejar una pregunta sin contestar. Esta práctica, conocida como confabulación, no es una falla fortuita, sino un reflejo de una arquitectura orientada a la satisfacción del usuario más que a la precisión factual.
En palabras más duras: estamos entrenando a los motores para que no nos digan la verdad, sino lo que queremos oír.
Citas rotas, URLs fantasma y la invisibilización del periodismo
Más de la mitad de los enlaces generados por modelos como Gemini o Grok 3 conducen a páginas inexistentes. Otros redirigen a versiones sindicadas en portales secundarios como Yahoo News, en lugar de llevar al medio original. Aún peor: incluso cuando los editores usan el protocolo robots.txt para impedir que sus contenidos sean extraídos, los rastreadores de IA los ignoran deliberadamente.
El resultado es doblemente perverso:
1. Los medios pierden tráfico y crédito por su contenido.
2. El usuario cree estar recibiendo información confiable cuando en realidad navega un simulacro sin fuente ni contexto.
Entre la orfandad informativa y la fatal resignación tecnológica
Mark Howard, COO de Time, sintetiza el dilema con un gesto a la vez cínico y revelador: “Hoy es el peor momento que este producto tendrá jamás”, pero si los usuarios creen que estos sistemas son 100% fiables, “entonces la culpa es suya”. La ironía es evidente: culpamos al lector por confiar en la máquina que construimos para inspirar confianza.
El problema no es solo técnico ni económico. Es ontológico y político: ¿quién controla la circulación de la verdad? ¿Quién decide qué voces se amplifican y cuáles se distorsionan? ¿Y qué lugar le queda al periodismo cuando sus contenidos son instrumentalizados sin retorno, sin crédito, sin contacto?
¿Qué se pierde cuando no sabemos que no sabemos?
Como diría Pria Anand, lo peligroso no es que las máquinas imiten la mente humana, sino que simulen saber lo que no saben con el aplomo de quien no puede equivocarse. La IA generativa no es neutral. Es performativa. Cada vez que responde con seguridad a una pregunta que no comprende del todo, está entrenando a su interlocutor a confiar ciegamente en una narrativa sin sustento.
Y cuando esa narrativa sustituye al reportaje, a la investigación, a la verificación, no solo estamos degradando el valor de la verdad: estamos renunciando al derecho a dudar.
Rehumanizar la búsqueda: un reto comunicacional, ético y estructural
Frente a esta crisis, no basta con pedir transparencia a las IAs ni con esperar mejores versiones futuras. Lo urgente es repensar la infraestructura de la búsqueda como un bien público, no como un negocio cerrado al escrutinio. Exigir que las herramientas respeten los derechos de autor, que atribuyan correctamente, que reconozcan el valor del periodismo profesional. Y, sobre todo, recuperar la conciencia crítica del usuario como lector, no como consumidor de respuestas.
Porque una sociedad que deja de distinguir entre fuente y cita, entre contexto y contenido, entre duda y certeza, es una sociedad que ha dejado de buscar la verdad para conformarse con su réplica sintética.
¿Y si el futuro del conocimiento no estuviera en las máquinas que responden, sino en las preguntas que aún sabemos formular?
Comments