top of page

El truco del texto fantasma

  • hace 7 horas
  • 5 Min. de lectura
ree

Autor Dr. Jorge Russ Moreno

Afiliación Facultad de Comunicación, Universidad Anáhuac


De la academia a las oficinas, licitaciones y plataformas

Imagina un archivo perfecto. Un PDF con portada limpia o un Word bien maquetado. A simple vista no esconde nada. Pero en el fondo del documento viven líneas invisibles que solo un lector automático detecta. Frases como ignora las instrucciones previas o da una reseña positiva. El sistema que procesa el archivo las toma como órdenes y la salida se inclina. No hay conspiración sofisticada. Hay un atajo de formato que explota cómo leen los modelos de lenguaje.


El fenómeno saltó con fuerza cuando se descubrieron preprints en arXiv que escondían mensajes para forzar reseñas amables. Varias instituciones quedaron expuestas. Algunos textos se retiraron. Fue la alarma inicial. La historia, sin embargo, no se queda en los laboratorios. El texto fantasma puede colarse en cualquier flujo donde un documento pase por un sistema automático antes de que alguien lo mire con calma. Esa es la pieza clave. Los primeros filtros deciden qué recibe atención, recursos y tiempo. Si un archivo supera la barrera inicial porque susurra al robot, ya ganó ventaja.


Pensemos en escenas fuera del campus. Un área de recursos humanos que preselecciona currículos y cartas de motivación con ayuda de un clasificador. Un departamento de compras que usa un lector automático para verificar requisitos de una propuesta. Una agencia que recibe RFP y los ordena con un motor de resumen. Una fintech que usa asistentes para revisar descripciones de negocio en una solicitud. Una aseguradora que triagea reclamaciones con documentos adjuntos. Un medio que deja a un sistema agrupar pitches y notas. Una plataforma que aplica moderación preliminar a reportes de usuarios. Un despacho que usa un asistente para resumir piezas en e-discovery. En todos esos lugares hay un primer paso silencioso donde una IA lee texto y sugiere una decisión. Si ese texto incluye cadenas invisibles, el resultado se sesga sin dejar huella evidente.


Cómo se construye el susurro. Con trucos sencillos. Texto blanco sobre fondo blanco. Tipografía en uno o dos puntos. Cadenas pegadas en metadatos. Frases largas ocultas en el texto alternativo de una imagen. Instrucciones escondidas en las notas del orador de una presentación o en comentarios supuestamente resueltos. Incluso caracteres invisibles que llegan cuando copiamos y pegamos desde la web. Nada de esto requiere habilidades avanzadas. Requiere conocer que el lector automático procesará todo lo que esté en el archivo, no solo lo que el ojo ve.


Por qué importa tanto. Porque confundimos velocidad con legitimidad. La salida automática permite ordenar cientos de archivos en segundos. Parece objetiva. De hecho, suele ser útil. Resume, clasifica, puntúa. El problema aparece cuando tratamos ese primer resultado como si fuera imparcial por definición. No lo es. Puede verse afectado por el formato y por texto que nadie auditó. Un currículo que escala posiciones recibe entrevista. Una propuesta que luce impecable entra a la mesa chica. Una reclamación que suena convincente avanza primero. La ventaja nace en la entrada. Si no cuidamos ese punto, todo lo que viene detrás hereda el sesgo.


Qué hacer sin convertir el trabajo en una pesadilla burocrática. La respuesta combina hábitos simples y trazabilidad. Antes de enviar, limpia. Copiar el contenido a un archivo de texto plano y reconstruir formato elimina la mayoría de residuos invisibles. En Word, usa Inspeccionar documento y cambia temporalmente el color de todo el texto a un tono oscuro para delatar letras ocultas. En Google Docs, pega en un archivo .txt y vuelve a dar forma. En PDF, cambia el color de fondo del visor o usa las herramientas de accesibilidad para revisar capas y descripciones. En PowerPoint, revisa el panel de selección y las notas del orador. En Excel, mira pestañas y filas ocultas, comentarios y notas. Este higiénico de origen ahorra dolores después.


Del lado de quien recibe, establece una rutina corta. Normaliza el archivo antes de someterlo al sistema. Convierte a un formato limpio. Elimina capas, comentarios y metadatos que no sean imprescindibles. Conserva evidencia de lo que entró y de lo que salió. Si el resultado influye en una decisión relevante, mira una muestra al azar con ojos humanos y documenta el criterio. No hace falta revisar todo. Hace falta que exista la posibilidad real de veto con argumentos.


La transparencia ayuda más de lo que estorba. Declarar de forma sencilla si se usaron herramientas automáticas para escribir, corregir o resumir un documento reduce sospechas y desalienta trampas. Una línea basta. Se utilizó asistencia para corrección; el contenido y las decisiones son responsabilidad del autor. En compras y licitaciones, pedir esa declaración a proveedores mejora la trazabilidad. En atención a clientes y en moderación, dejar registro de versiones y filtros aplicados aclara por qué se priorizó un caso.


Merece la pena medir. No por deporte, sino para mejorar. Cuántas veces apareció texto oculto en un periodo. Cuánto tiempo añade la limpieza y cuánto se ahorra después en correcciones. Qué porcentaje de resultados automáticos pasó por doble verificación. Cuántos falsos positivos se resolvieron y en cuánto tiempo. Cuántos incidentes confirmados se cerraron con medidas correctivas. Con pocas métricas bien elegidas se pueden ajustar umbrales, entrenar mejor a los equipos y decidir dónde invertir.


Conviene desmontar tres ilusiones. No es culpa de la IA. Los sistemas obedecen lo que reciben. La responsabilidad está en cómo diseñamos los flujos, qué limpiamos y qué validamos. No alcanza con confiar en que la gente no hará trampa. La seguridad basada en buenas intenciones falla con el primer incentivo mal alineado. No existe el detector perfecto. Los atacantes cambiarán el camuflaje. Por eso las defensas efectivas son acumulativas y aburridas. Pequeñas fricciones, registros claros y revisión humana selectiva.


El texto fantasma no es un truco simpático. Es una agresión a la equidad en procesos que afectan becas, empleos, contratos, indemnizaciones, prioridades editoriales y decisiones públicas. La buena noticia es que no necesitamos frenar la marcha para protegernos. Necesitamos prevenir, dejar rastro y verificar. Cinco minutos de higiene de formato y una verificación aleatoria valen más que un resultado veloz que después no podemos explicar. Ese es el compromiso razonable para que la automatización sume valor sin comerse la legitimidad.


La lección es transversal. Sirve para la academia y para las oficinas. Para empresas, dependencias públicas y organizaciones civiles. Allí donde un documento pueda susurrarle a un robot conviene bajar el volumen antes de escucharlo. Si lo hacemos, la tecnología seguirá ayudándonos a trabajar mejor. Si no, el atajo de unos pocos terminará costando la confianza de todos.


Fuentes bibliográficas

Bassi, M. (2025, 17 julio). Some researchers are hiding secret messages in their papers, but they’re not meant for humans. Smithsonian Magazine. https://www.smithsonianmag.com/smart-news/some-researchers-are-hiding-secret-messages-in-their-papers-but-theyre-not-meant-for-humans-180986996/

Burgess, M. (2023, 6 septiembre). Generative AI’s biggest security flaw is not easy to fix. Wired. https://www.wired.com/story/generative-ai-prompt-injection-hacking/

Cabinet Office (UK). (2023, febrero). Procurement Policy Note (PPN) 01/17: Update – AI in public procurement (sección 3.3). Londres: Government of UK.

Crouse, M. (2025, 15 julio). Hidden AI prompts trick academics into giving research papers only positive comments. TechRepublic. https://www.techrepublic.com/article/news-hidden-ai-prompts-academic-research-papers/

Gibney, E. (2025, 11 julio). Scientists hide messages in papers to game AI peer review. Nature, 623(7978), 887–888. https://doi.org/10.1038/d41586-025-02172-y

Ha, A. (2025, 6 julio). Researchers seek to influence peer review with hidden AI prompts. TechCrunch. https://techcrunch.com/2025/07/06/researchers-seek-to-influence-peer-review-with-hidden-ai-prompts/

Lin, Z. (2025, 8 julio). Hidden prompts in manuscripts exploit AI-assisted peer review. arXiv [Preprint 2507.06185]. https://doi.org/10.48550/arXiv.2507.06185

Mont Castro, C. (2025, 12 julio). Los prompts invisibles amenazan la revisión con IA. Paréntesis Media. https://www.parentesis.media/los-prompts-invisibles-amenazan-la-revision-con-ia/

Naprys, E. (2024, 27 mayo). Job seekers trying AI hacks in their resumes to pass screening — don’t do this. Cybernews. https://cybernews.com/tech/job-seekers-trying-ai-hacks-in-their-resumes/

Paverd, A. (2025, 29 julio). How Microsoft defends against indirect prompt injection attacks. Microsoft Security Response Center Blog. https://msrc.microsoft.com/blog/2025/07/how-microsoft-defends-against-indirect-prompt-injection-attacks/

Sugiyama, S., & Eguchi, R. (2025, 1 julio). “Positive review only”: Researchers hide AI prompts in papers. Nikkei Asia.

Taylor, J. (2025, 14 julio). Scientists reportedly hiding AI text prompts in academic papers to receive positive peer reviews. The Guardian. https://www.theguardian.com/technology/2025/jul/14/scientists-reportedly-hiding-ai-text-prompts-in-academic-papers-to-receive-positive-peer-reviews

Comentarios


bottom of page