La evaluación algorítmica y la juventud hipermediatizada
- 1 sept
- 4 Min. de lectura

Por: Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
El reporte de Axios sobre el uso de chatbots de IA en la docencia universitaria (2025, Educators are turning to AI, even for grading) reveló un dato inquietante: casi la mitad de las conversaciones de profesores con Claude, la IA de Anthropic, se dedicaron a delegar tareas de evaluación. Lo que antes era el núcleo de la mediación pedagógica —leer, interpretar y acompañar el proceso de aprendizaje— empieza a tercerizarse en manos de algoritmos.
Para las generaciones jóvenes, este desplazamiento tiene consecuencias profundas. En nuestras investigaciones sobre comunicación hipermediática hemos documentado cómo la vida juvenil ya se encuentra saturada de pantallas, datos y narrativas digitales. En ese ecosistema, la evaluación académica debería ser un espacio de encuentro humano, donde se reconocen trayectorias, se discuten argumentos y se retroalimenta el juicio crítico. Si la calificación se convierte en un trámite algorítmico, se corre el riesgo de que los estudiantes perciban que hasta el valor de su esfuerzo puede externalizarse, como quien delega una búsqueda en Google o un post en redes.
El joven hipermediatizado no solo estudia: gestiona su identidad, su pertenencia y su futuro a través de mediaciones digitales. En ese marco, la evaluación ya no es solo un número en un acta, sino parte de la narrativa simbólica de sí mismo. Cuando un bot devuelve una nota, sin mirada, sin historia, sin palabra viva, se produce una fractura: el estudiante ya no siente que es un docente quien reconoce su singularidad, sino un sistema que replica fórmulas preestablecidas.
Ese vaciamiento cultural convierte la educación en un proceso de mera certificación, debilitando la construcción de capital cognitivo y simbólico en la juventud. En lugar de propiciar el diálogo intergeneracional, la IA puede consolidar la percepción de que todo —incluso el juicio sobre lo que somos y sabemos— puede ser automatizado. Y si las nuevas generaciones aprenden a aceptar que la máquina evalúe su voz, ¿qué lugar quedará para la conversación, el disenso y la experiencia viva que constituyen el corazón mismo de la educación?
Un llamado a docentes y universidades
Las universidades latinoamericanas tienen aquí un desafío urgente: no delegar lo irreemplazable. La calificación puede apoyarse en herramientas automáticas, pero la evaluación debe seguir siendo un acto humano, dialógico y situado. El riesgo de convertir la educación en una burocracia algorítmica es que los estudiantes pierdan la certeza de que alguien los escucha de verdad.
El llamado es doble:
A los docentes, para que usen la IA como aliada pero no como sustituta, preservando el espacio de retroalimentación personal donde se forja el pensamiento crítico.
A las instituciones educativas, para que diseñen lineamientos claros que garanticen transparencia, ética y centralidad del profesor en los procesos de evaluación.
La educación en América Latina no puede permitirse un futuro donde las desigualdades digitales se traduzcan también en desigualdades simbólicas: jóvenes que solo reciban calificaciones maquínicas frente a otros que aún accedan al acompañamiento humano. En contextos de fragilidad democrática, donde la escuela sigue siendo una de las pocas instituciones de socialización colectiva, la evaluación es también un acto político: reconocer al otro en su esfuerzo, con todas las imperfecciones de la mirada humana.
A esto propongo un: Manifiesto estudiantil por la integridad académica
Como estudiantes y profesores de la era digital, afirmamos que:
La educación no es negociable: no aceptaremos evaluaciones opacas donde se desconozca quién y cómo juzga nuestro trabajo.
Exigimos transparencia: si un docente o un alumno recurre a herramientas de IA, debe informarlo con claridad y acompañar personalmente sus resultados.
Defendemos la integridad académica: aprender implica esfuerzo, errores y diálogo; no aceptamos atajos que trivialicen nuestro conocimiento.
La ética es nuestro marco: pedimos que toda innovación tecnológica en el aula respete la dignidad del estudiante y del profesor, su derecho a ser evaluado con justicia.
La responsabilidad es compartida: estudiantes y docentes debemos construir juntos prácticas honestas de aprendizaje, donde la IA complemente, pero nunca sustituya, el encuentro humano.
El problema de fondo no es si la inteligencia artificial puede evaluar mejor o peor que un humano, sino qué significa ser evaluados como humanos. La evaluación no es solo un instrumento técnico; es un rito antropológico donde se nos reconoce en nuestra singularidad y en nuestro esfuerzo. Sustituirlo por un algoritmo es poner en riesgo la experiencia misma de la educación como encuentro interhumano.
Desde una perspectiva ética, la evaluación exige responsabilidad y transparencia: el docente es testigo de un proceso de transformación y no un mero certificador de datos. Desde lo filosófico, la evaluación recuerda que aprender implica errar, corregir, dialogar y madurar. Y desde lo espiritual, nos confronta con una verdad elemental: lo que da sentido al aprendizaje no es la perfección del resultado, sino el vínculo humano que lo sostiene.
Si dejamos que la IA se convierta en juez silencioso y absoluto, corremos el riesgo de olvidar que el conocimiento no se valida en el cálculo, sino en la confianza mutua. La pregunta decisiva no es si la IA puede evaluarnos, sino si queremos una educación donde el reconocimiento de nuestra humanidad siga siendo el centro. Porque educar es siempre mucho más que enseñar a responder: es aprender a ser con otros




Comentarios