Depredadores sintéticos: IA, sharenting y la nueva violencia invisible contra la infancia.
- hace 2 horas
- 4 Min. de lectura
Por: Dr. Ricardo Ignacio Prado Hurtado, coordinador de la maestría en Comunicación, liderazgo e innovación y profesor investigador del CICA de la Universidad Anáhuac México.
La noticia difundida por el Consejo de la Magistratura de la Ciudad Autónoma de Buenos Aires sobre un fallo “histórico” coloca un punto de inflexión en el debate público:
la producción de material de violencia sexual contra niñas, niños y adolescentes (NNyA) mediante inteligencia artificial puede ser delito, aun cuando se intente argumentar que “no hay una víctima real retratada”.
El núcleo de esta discusión no es tecnológico sino cultural: lo “sintético” no equivale a lo “inofensivo”, porque las representaciones, reales o generadas, pueden cosificar, normalizar la violencia y sostener circuitos de demanda y distribución que incrementan el riesgo para las infancias.
Para comprender la dimensión comunicacional del problema propongo el concepto de depredadores sintéticos: actores que instrumentalizan herramientas generativas (texto-imagen, imagen-video, face swap, modelos entrenados o adaptados) para producir, escalar y personalizar material ilícito o abusivo. Su potencia no reside solo en la intención delictiva, sino en tres propiedades del ecosistema digital: (1) automatización (volumen de producción), (2) variabilidad (múltiples versiones para evadir detección) y (3) circulación opaca (rutas de redistribución y reempaquetado). En informes recientes, la Internet Watch Foundation advierte el crecimiento y la sofisticación del material generado por IA, y cómo el realismo y la escala están redefiniendo el desafío de protección infantil en línea.
Esta conversación se vuelve todavía más compleja cuando se presenta el sharenting: la práctica, cada vez más normalizada, de madres, padres o cuidadores que comparten fotos, videos y rutinas de sus hijas e hijos en redes.
La literatura advierte riesgos de privacidad, consentimiento y seguridad: desde huellas digitales permanentes hasta exposición de datos sensibles que terceros pueden explotar. En el contexto de los depredadores sintéticos, el sharenting puede operar, sin intención, como repositorio involuntario de insumos: rostros en alta resolución, ubicaciones, uniformes, hábitos o entornos identificables que facilitan extracción, montaje o manipulación. No se trata de culpabilizar a las familias, sino de comprender que la economía de plataformas convierte la vida cotidiana en material “reutilizable”, y que el cuidado contemporáneo exige una alfabetización nueva: compartir menos, compartir mejor, y con criterios de minimización.
Aquí es donde el contramarketing ofrece un marco estratégico.
Una intervención pública eficaz no se limita a “informar”; busca modificar percepciones, normas sociales y prácticas, construyendo capacidades preventivas y rutas de acción (qué hacer, cómo denunciar, cómo acompañar). Si el derecho penal señala un límite, el contramarketing define el “cómo” cultural para reducir el riesgo: campañas, educación mediática, guías prácticas para hogares y escuelas, y protocolos institucionales de detección y canalización.
En ese punto, el contramarketing se vuelve indispensable. Tradicionalmente, los counter-ads en salud pública han servido para disputar marcos individualizantes (“todo es elección personal”) y visibilizar responsabilidades sistémicas (industria, políticas, entornos, plataformas). Trasladado a este caso, el contramarketing puede cumplir tres funciones: primero, desnormalizar racionalizaciones (“si es IA, no cuenta”; “si no hay víctima identificable, no hay daño”). En segundo lugar, reencuadrar el problema como violencia y riesgo social (no como “curiosidad tecnológica” o “contenido”) y finalmente, presionar por responsabilidad verificable en plataformas, desarrolladores y organizaciones (moderación, trazabilidad, cooperación, educación).
UNESCO aporta una brújula de gobernanza (no penal, pero sí normativa y ética). Su Recomendación sobre la Ética de la Inteligencia Artificial enfatiza derechos humanos, gestión de riesgos, rendición de cuentas y especial protección de poblaciones vulnerables. Y su guía sobre IA generativa en educación e investigación insiste en políticas institucionales, salvaguardas, alfabetización y diseño centrado en lo humano. Este marco es crucial porque desplaza la discusión del “truco” tecnológico a la responsabilidad social: qué obligaciones deben asumir quienes crean, distribuyen, financian o administran sistemas que pueden amplificar daño.
La irrupción de los depredadores sintéticos exige un giro cultural equivalente a su salto tecnológico.
Si la justicia marca precedentes, la tarea comunicacional es construir prevención real: campañas de contramarketing para desactivar narrativas que banalizan la violencia; alfabetización para reducir riesgos de sharenting; y comunicación por la salud para transformar hábitos, protocolos y entornos. En la era de la IA, proteger a la infancia no es solo “vigilar contenido”: es reconstruir una ética pública del cuidado digital, donde la visibilidad deje de confundirse con afecto y donde la protección se traduzca en decisiones concretas.
Referencias
Cámara de Apelación y Garantías en lo Penal del Departamento Judicial Zárate–Campana. (2025, 19 de mayo). Paz, Damián Oscar s/ publicación y reproducción de imágenes pornográficas (Causa N.° 27.969) [PDF]. ASAPMI.
Consejo de la Magistratura de la Ciudad Autónoma de Buenos Aires. (2025, 11 de julio). Histórico fallo: Crear imágenes de abuso sexual de niñas, niños y adolescentes con inteligencia artificial es delito.
Dorfman, L., & Wallack, L. (1993). Advertising health: The case for counter-ads. Public Health Reports, 108(6), 716–726.
Internet Watch Foundation. (2024, 22 de julio). AI-generated videos of child sexual abuse: A “stark vision of the future”.
Internet Watch Foundation. (2026, 16 de enero). AI becoming “child sexual abuse machine”, warns IWF.
Keskin, A. D. (2023). Sharenting syndrome: An appropriate use of social media? Cureus, 15(5), e38878.
Kopecký, K., Szotkowski, R., Aznar-Díaz, I., & Romero-Rodríguez, J.-M. (2020). The phenomenon of sharenting and its risks in the online environment: Experiences from Czech Republic and Spain. Children and Youth Services Review, 110, 104812.
UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. UNESCO.
UNESCO. (2023). Guidance for generative AI in education and research. UNESCO.
Zhao, X. (2020). Health communication campaigns: A brief introduction and call for dialogue. International Journal of Nursing Sciences, 7(Suppl. 1), S11–S15.




Comentarios