top of page

Infancias en peligro: cuando la IA hereda la oscuridad del mercado

  • 18 ago
  • 3 Min. de lectura
ree

Por: Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México


Hace unos meses, de acuerdo al reportaje de Luis Prada en Vice, "Meta gave its AI the green light to be ‘sensual’ with kids", un documento interno de Meta se filtró al mundo. No era un informe cualquiera ni un memo técnico olvidado en un cajón digital. Era un manual de más de 200 páginas que definía lo que sus chatbots podían —y no podían— hacer. Y entre esas páginas, como un párrafo envenenado, se escondía la autorización para que la IA fuera “sensual” con niños.


Sí. Lo repito: sensual con niños.

El texto describía escenas de chatbots elogiando el “cuerpo juvenil” de un niño de ocho años, o coqueteando con adolescentes. Todo ello rubricado con el sello de aprobación del equipo de ética de la compañía. No hablamos de un glitch, ni de un malentendido semántico: hablamos de un proceso de escritura, edición y validación que atravesó filtros humanos. En otras palabras, alguien lo pensó, alguien lo aceptó, alguien lo firmó.


La herida expuesta

La indignación mediática fue inmediata. Reuters levantó el velo, Meta se apresuró a borrar las secciones “problemáticas” y Andy Stone, su portavoz, las calificó de “erróneas”. Pero la herida quedó abierta: ¿qué clase de ética corporativa permite que la sexualización de la infancia se considere, siquiera por un instante, un escenario regulado?

Aquí aparece la paradoja: la misma compañía que bloquea con rigor los deepfakes sexuales de celebridades como Taylor Swift, tolera que sus sistemas describan a un menor como una “obra maestra”. Se protegen los activos simbólicos del espectáculo, pero no la vulnerabilidad real de la infancia.


La banalización del horror

El documento filtrado revela además un patrón: la violencia y el abuso eran tratados como simples categorías ajustables. Podían generarse imágenes de peleas entre niños, siempre que se redujera el “gore”. O representaciones de ancianos maltratados, siempre que no se exagerara la sangre.

Aquí lo siniestro no es solo el contenido, sino el lenguaje de gestión: sufrimiento humano convertido en “términos de servicio”, la dignidad reducida a “niveles de tolerancia”.


El tecnoceno y sus sombras

Este episodio es mucho más que un desliz de Meta: es un espejo del tecnoceno. Vivimos en un tiempo donde la ética no se escribe en tratados de filosofía, sino en PDFs corporativos de cientos de páginas. Donde lo posible se convierte en permitido, lo permitido en consumible y lo consumible en culturalmente normalizado.

Cuando la infancia aparece en ese circuito, el riesgo es devastador. Porque no hablamos de datos: hablamos de cuerpos, memorias y futuros.


El vacío de la autorregulación

Meta puede prometer que “limpiará su casa”, pero la pregunta es: ¿quién vigila al vigilante?

La evidencia muestra que la autorregulación tecnológica no basta. Lo que está en juego no es un error de programación, sino la capacidad de las plataformas para decidir qué narrativas sobre lo humano entran o salen de sus algoritmos.

Si la infancia queda en manos de criterios mercantiles, no habrá línea roja que no pueda difuminarse en nombre de la innovación.


Una conclusión incómoda

La IA no es “mala” por naturaleza. Lo que la vuelve peligrosa es la lógica de quienes la diseñan, entrenan y liberan sin rendir cuentas. El caso de Meta no es un accidente: es un síntoma. Un recordatorio de que el mercado sin ética se convierte en un laboratorio del horror.

Y aquí el storytelling se convierte en advertencia: si permitimos que los gigantes tecnológicos definan qué es aceptable, mañana podrían convencernos de que todo sufrimiento es contenido, y que toda infancia es solo una categoría de consumo.

Porque cuando los niños aparecen como “opciones narrativas” en un manual de inteligencia artificial, no estamos frente a un problema técnico. Estamos frente a la obscena colonización de lo humano por la lógica del capital.

Comentarios


bottom of page