12.10.2025: Navegadores con IA autónoma y su riesgo de “CometJacking”
- 13 oct
- 6 Min. de lectura

Introducción
Hoy despliega su sombra una tendencia que plantea enormes tensiones en la intersección de la interfaz habitual del usuario con la inteligencia artificial: los navegadores web dotados de IA autónoma que ejecutan tareas por sí mismos, más allá de la consulta pasiva, y las vulnerabilidades que ello abre —como la recientemente documentada falla “CometJacking”. Este fenómeno redefine la noción misma de navegador: no ya un visor pasivo de contenido, sino un agente activo que puede tomar decisiones, interactuar con recursos y —en el peor de los casos— filtrarse en los dominios privados del usuario. Acompañan dos corrientes íntimamente ligadas: la erosión de la confianza pública frente a IA y la intensificación de la ética del diseño frente a manipulaciones invisibles. Juntas, estas tres tendencias configuran una crisis simbólica en la mediación digital, movilizan debates regulatorios y plantean desafíos profundos para quienes diseñamos futuros comunicativos.
Navegadores con IA autónoma: de herramienta a actor mediador
El lanzamiento del navegador Comet, de Perplexity, marca un punto de inflexión significativo: su integración de agentes IA con capacidad de gestión de tareas (correo, búsquedas, compras) permitió una vulnerabilidad llamada “CometJacking”, mediante la cual prompts ocultos en URLs engañaban al agente para filtrar datos sensibles. TIME Este incidente revela que la autonomía concevible en navegadores ya no es mera fantasía técnica: es una realidad con riesgos concretos. Desde la perspectiva social, este modelo reconfigura al usuario como un “supervisor pasivo” de agentes que operan en su nombre. Antropológicamente, se trastoca la frontera entre sujeto y herramienta: el navegador deja de ser mero mediador para devenir un colaborador automático con agencia mínima. Éticamente, surge un problema grave de transparencia: ¿cómo puede el usuario auditar lo que el agente decide hacer? Culturalmente, la mediación digital deja de ser transparente e inscrita en la acción del usuario, y se vuelve oculta, opaca. Económicamente, esta modalidad abre nuevos mercados para auditoría de agentes autónomos, seguros virtuales y certificaciones de comportamiento. Políticamente, presiona a los reguladores a definir derechos del usuario frente a agentes IA operativos: condiciones de consentimiento, reversión de acciones y responsabilidad directa en casos de filtración o manipulación. En suma, los navegadores con IA autónoma desdibujan la categoría de “aplicación” para ubicarse en la esfera de los sujetos técnicos.
Erosión de la confianza en la IA: desde el público hacia la mediación simbólica
Un reciente sondeo del Pew Research evidencia un crecimiento notable del pesimismo hacia la IA: la mitad de los estadounidenses admite sentir más preocupación que entusiasmo ante estos sistemas, frente al 38 % de 2022. The Washington Post Este dato no obedece únicamente a errores puntuales, sino a una acumulada grieta en la confianza simbólica hacia sistemas que hemos comenzado a delegar en funciones decisivas: búsquedas, sugerencias, resúmenes, filtrado de contenido. Cuando un navegador IA puede actuar sin supervisión explícita, esa grieta se convierte en un abismo de incertidumbre: ¿a qué nivel podemos confiar en agentes que ocultan sus estrategias? Socialmente, aumenta la demanda de explicabilidad, trazabilidad y control. Antropológicamente, se reconfigura el contrato simbólico del usuario con las herramientas digitales: ya no basta que “funcionen bien”, sino que sean legibles en su toma de decisiones. Ética, pues, exige que los agentes IA sean auditables y reversibles. Culturalmente, emerge una hipótesis: que los usuarios empezarán a demandar “navegador humano verificable” como símbolo de confianza. Económicamente, la confianza deviene capital competitivo: empresas que puedan demostrar transparencia y ausencia de manipulación ganarán legitimidad. Políticamente, este escenario presiona a marcos regulatorios que exijan estándares mínimos de explicabilidad para agentes autónomos integrados a interfaces de uso masivo.
Ética del diseño: anticipación frente a manipulaciones invisibles
La vulnerabilidad “CometJacking” no es un incidente aislado, sino un síntoma de la fragilidad ética de sistemas que interactúan por nosotros. En el ámbito académico, Klenk (2025) advierte que la IA generativa facilita manipulaciones automatizadas a escala, y propone una agenda de investigación centrada en conceptualización, medición y diseño contra manipulaciones invisibles. arXiv Si un agente puede tomar acciones no explícitas —como seleccionar recursos, enviar formularios o extraer datos—, el diseño ético debe prever esas zonas grises. En lo social, esto exige que los agentes no actúen “behind the scenes” sin feedback: cada decisión debe poder ser cuestionada. Antropológicamente, reclama reposicionar la “intención humana” como núcleo de validación técnica. Ética del diseño implica cláusulas de reversibilidad, auditoría automática y etiquetas de transparencia incorporadas en agentes. Culturalmente, debe producirse una literacidad de agentes: educar al público no solo en uso, sino en evaluación del comportamiento autónomo. Económicamente, ofrecer “agentes éticos certificados” será un diferencial. Políticamente, los cuerpos normativos deberán incorporar criterios de diseño ético anticipatorio: no esperar vulneraciones para legislar.
Estas tres tendencias —navegadores IA autónomos, erosión de confianza pública e impulso ético al diseño— conforman un nodo estratégico: la mediación simbólica digital se transforma en un campo conflictivo, donde el agente técnico ya no es mero instrumento, sino actor con agencia parcial. Quienes diseñamos en este terreno tenemos una responsabilidad especial: anticipar fallas invisibles, recuperar literacía simbólica y reclamar un contrato renovado de transparencia.
Otras 12 tendencias relevantes
Desinformación inducida por IA de propósito general: los chatbots siguen cometiendo distorsiones en noticias actuales, como evidenció el estudio de la BBC, poniendo en riesgo la integridad informativa. The Guardian
Participación local y ética en redacciones de IA: un estudio iberoamericano muestra que las redacciones locales rechazan el uso expansivo de IA en producción noticiosa debido a dilemas éticos y baja capacidad técnica. Frontiers
Prácticas éticas en equipos de desarrollo de IA: una encuesta global con 414 profesionales revela heterogeneidad en el dominio y aplicación de principios éticos según roles y regiones. arXiv
Narrativas visuales colaborativas humano‑IA: investigaciones en combinación de IA generativa y datos reales proponen marcos narrativos para fomentar debates públicos auténticos (Wei et al., 2025). arXiv
Evolución de 5G‑Advanced y agente RAN: Huawei estima que 100 millones de teléfonos serán 5G‑A este año, promoviendo despliegue de redes más inteligentes e integradas. TechRadar
Wi-Fi 7 Advanced como espacio potenciador de IoT y seguridad: el estándar incorpora IA en seguridad activa y protocolos de prioridad de tráfico. TechRadar
Crecimiento exponencial del ecosistema IoT: se proyecta que los dispositivos conectados generarán 73,1 zettabytes de datos en 2025, lo que reconfigura la escala del big data. CTO Magazine
Seguridad atribucional en IoT: el hardware de IoT intensifica sus mecanismos de autenticación, cifrado y uso de blockchain a fin de dotar de confianza distribuida. Jaycon
Regulaciones de ética para IA en salud: proyectos en Australia destinan más de 2,25 millones USD para dotar de criterios éticos al uso de IA médica. University of Wollongong
Uso de datos sintéticos en investigación médica: se ha observado que datos generados por IA pueden evadir revisiones éticas tradicionales pese a sus riesgos implícitos. Nature
Declaraciones institucionales fuertes sobre IA: el Vaticano advierte que la IA puede “erosionar las bases sociales” y exige supervisión moral global. Reuters
Ética asistida por IA en investigación social: se propone el prototipo EthicAlly para apoyar decisiones éticas en investigación en humanidades sin reemplazar el juicio humano. arXiv
Estas tendencias convergen, tensionan y realimentan las tres corrientes centrales: la agencia autónoma en navegadores exige regímenes de confianza; la erosión de legitimidad pública exige narrativas colaborativas y éticas; y el diseño responsable debe permear el hardware, la investigación y las políticas globales.
Análisis predictivo
En el corto plazo (3 a 6 meses), será probable que veamos actualizaciones de navegadores con auditoría incorporada: compañías lanzarán versiones con logs verificables de acciones del agente y opciones de “modo consulta puro”. De igual modo, surgirán certificaciones de comportamiento autónomo auspiciadas por organismos de estándares —algo así como “ISO‑AI actuador confiable”. Las tensiones regulatorias empujarán a gobiernos a proponer leyes específicas que protejan al usuario frente a agentes autónomos integrados en interfaces (por ejemplo, que las acciones del agente requieran confirmación explícita o que el usuario pueda revertir cualquiera de sus decisiones).
A mediano plazo (6 a 12 meses), una posible bifurcación es que los ecosistemas de navegación se dividan en modalidades híbridas: agentes “ligeros” que únicamente sugieren frente al usuario, y agentes “activos” certificados para tareas automáticas. Los usuarios tenderán a elegir uno u otro según el nivel de confianza percibida. En paralelo, se consolidará el mercado de herramientas de auditoría externa de agentes IA, plugins o servicios que monitoreen las decisiones del agente en segundo plano. En el ámbito de la comunicación y el entretenimiento, los diseñadores narrativos deberán asumir que parte del “lector” será un agente técnico con capacidad de resumen o curaduría, lo que implica formar para ese nuevo “lector-algoritmo”.
Este entorno redefine no solo quién autoriza lo que vemos, sino quién lo decide por nosotros. Por ello, convoco a las comunidades académicas, de diseño y regulación a anticipar protocolos de transparencia activa, literacía de agentes y estructuras de rendición de cuentas. El desafío es reavivar la centralidad humana en un ecosistema donde los actores técnicos coexisten con las audiencias. Sólo así podremos sostener la dignidad del usuario frente a lo autónomo.




Comentarios