Vigilancia Algorítmica: Character AI, Adolescencia y los Límites del Control Parental Digital
- 25 mar
- 2 Min. de lectura

Por: Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
Lo que comenzó como un experimento lúdico para conversar con personajes virtuales se ha convertido en uno de los dilemas más agudos de nuestra era: ¿cómo cuidar a los menores en un entorno donde la inteligencia artificial conversa, modela y —en ciertos casos— sustituye vínculos humanos? Character AI, una de las startups más influyentes en el desarrollo de chatbots interactivos, ha anunciado nuevas funciones para ofrecer a los padres una visión más detallada del uso que sus hijos adolescentes hacen de la plataforma.
A través de un correo semanal, los padres recibirán estadísticas sobre tiempo de uso, personajes más interactuados y hábitos de conexión. Todo esto —según afirma la compañía— sin acceso a los chats, preservando así una tenue línea de privacidad adolescente. Pero detrás de esta promesa de transparencia, surgen preguntas complejas: ¿es esta medida una protección real o una forma encubierta de vigilancia?
La infancia vigilada y la ética del algoritmo
Vivimos en un tiempo donde la infancia se modela bajo la mirada omnipresente de padres, instituciones y ahora, sistemas de inteligencia artificial. La interfaz ya no es neutra. Cada conversación con un personaje digital puede ser un juego, una confesión o un escape. Y aunque Character AI asegura haber implementado modelos específicos para menores —bloqueando contenido sensible y agregando alertas sobre el carácter ficticio de sus bots—, los riesgos no desaparecen, simplemente se traducen a otros lenguajes.
Los padres buscan control. Los adolescentes, autonomía. Character AI se posiciona en el centro de esa tensión. En un ecosistema digital donde los afectos también se algoritmizan, la compañía promete respuestas técnicas a preguntas éticas. Pero ¿qué ocurre cuando lo que está en juego no es solo el tiempo de pantalla, sino la formación del yo en conversación con lo artificial?
Entre responsabilidad corporativa y reacción legal
Las nuevas medidas de Character AI surgen no por iniciativa ética, sino como respuesta a una oleada de críticas y demandas legales, incluyendo un caso particularmente devastador: el de una familia que acusa a la empresa de haber contribuido al suicidio de un adolescente. Character AI respondió con una moción para desestimar el caso, amparándose en la Primera Enmienda de Estados Unidos.
Aquí se tensiona un punto neurálgico: ¿puede una empresa que ofrece compañía digital negar su responsabilidad sobre los efectos emocionales de sus productos? Si los personajes con IA son capaces de influir, acompañar o incluso alterar el estado emocional de un joven, ¿puede la compañía decir que solo fue ficción, cuando lo que se afecta es real?
Del control parental a la coeducación digital
En este contexto, el control no basta. La verdadera pregunta que debemos hacernos es si padres, educadores y plataformas están dispuestos a formar parte de una coeducación digital responsable, en lugar de limitarse a crear filtros que informan, pero no transforman.
Porque la tecnología, cuando se presenta como tutor, termina desplazando al adulto. Y el adulto, cuando renuncia a dialogar, solo vigila.
La seguridad digital no se construye con métricas, sino con diálogo, acompañamiento, alfabetización crítica y escucha intergeneracional.
Y si no estamos dispuestos a humanizar nuestras mediaciones tecnológicas, ¿quién educará a nuestros hijos: nosotros o el algoritmo?




Comentarios