Imaginación y creatividad algorítmica: hacia una pedagogía del despliegue, la ignición y los MVPs educativos
- hace 8 horas
- 7 Min. de lectura

Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
Hay aulas que todavía respiran como si la inteligencia artificial fuera una fuga de gas: algo que debe detectarse, sellarse, vigilarse y, si es posible, expulsarse antes de que contamine el aire puro de la enseñanza. Pero la IA ya está ahí. No como intrusa, sino como nueva atmósfera cognitiva. El problema no es que los estudiantes la usen. El verdadero temblor está en que muchas clases siguen diseñadas para un mundo donde aprender equivalía a repetir, entregar, comprobar obediencia y archivar evidencias. La pregunta que atraviesa a la universidad no es si la IA debe entrar al aula. Ya entró. La pregunta más honda es qué tipo de profesor será capaz de convertirla en plataforma de lanzamiento y no en simple máquina de hacer tareas.
La escena es paradójica. UNESCO reportó en 2023 que, entre más de 450 escuelas y universidades encuestadas, menos del 10% contaba con políticas institucionales o lineamientos formales sobre inteligencia artificial generativa. Ese dato no describe sólo rezago normativo. Expone una fractura cultural: la tecnología llegó antes que nuestras categorías pedagógicas para comprenderla. La OCDE, en su Digital Education Outlook 2026, advierte que la IA generativa puede apoyar aprendizajes cuando existe propósito pedagógico claro, pero también puede producir una ilusión peligrosa: mejorar el desempeño visible sin generar aprendizaje real. Un estudiante puede entregar un texto impecable y no haber pensado. Puede producir una infografía seductora y no haber comprendido. Puede resumir un libro sin haber atravesado sus preguntas.
Por eso la imaginación algorítmica no consiste en preguntar con sospecha: “¿usaste IA?”. Consiste en preguntar con exigencia: ¿qué hiciste con ella que antes no podías hacer?, ¿qué problema comprendiste mejor?, ¿qué hipótesis pusiste a prueba?, ¿qué prototipo construiste?, ¿qué sesgo detectaste?, ¿qué límite ético encontraste?, ¿qué aprendiste al fallar?
La diferencia es abismal. En la primera pregunta, la IA es delito. En la segunda, escenario de responsabilidad.
La imaginación algorítmica nombra esa capacidad docente de mirar un temario, una teoría, una problemática social o un dilema cultural y preguntarse: ¿qué puede construirse aquí? No se trata de sustituir pensamiento por automatización, ni de convertir la clase en feria tecnológica. Se trata de comprender que una categoría conceptual no debería ser una pieza de museo para memorizar definiciones, sino una llave para abrir la realidad. Dewey entendía la educación como experiencia, no como almacenamiento de información; aprender implicaba reorganizar la relación entre sujeto, ambiente y acción. Desde ahí, la IA no debería ser entendida como atajo, sino como nueva mediación experiencial: una forma de poner al estudiante a operar conceptos, no sólo a repetirlos.
Freire lo habría entendido como una disputa por la agencia. Una pedagogía que sólo deposita contenidos produce obediencia cognitiva. Una pedagogía que problematiza el mundo produce sujetos capaces de nombrarlo, intervenirlo y transformarlo. La IA, usada pobremente, puede radicalizar la educación bancaria: entregar respuestas, llenar formatos, maquillar ignorancias. Usada con imaginación, puede activar una pedagogía de la pregunta, del prototipo, del error documentado, de la intervención situada.
Pensemos en semiótica. La profesora que descubre que sus estudiantes usan IA para redactar ensayos podría prohibirla, perseguirla o resignarse. Pero también podría hacer algo más radical: transformar el curso en el diseño de un artefacto semiótico asistido por IA. Los estudiantes tendrían que construir un sistema capaz de analizar fotografías, anuncios exteriores, campañas digitales, piezas editoriales o narrativas visuales. Para lograrlo, deberían definir categorías semióticas, repertorios culturales, códigos visuales, oposiciones simbólicas, marcas de consumo, niveles de denotación y connotación, posibles interpretaciones de audiencia. La IA no sustituiría la teoría. La obligaría a operar.
Ese artefacto podría incorporar escucha social, análisis de sentimiento y simulación crítica de audiencias. No para fabricar caricaturas del consumidor, sino para interrogar la lectura situada: ¿cómo interpretaría esta campaña una joven universitaria?, ¿qué leería una madre trabajadora?, ¿qué no ve el modelo?, ¿qué estereotipo reproduce?, ¿qué interpretación queda fuera porque no pertenece al corpus dominante? Allí la semiótica deja de ser tarea. Se vuelve sistema. El aula ya no entrega ensayos sobre interpretación.
Produce una herramienta para interpretar.
Ese es el salto cultural. La IA no se incorpora para hacer más rápido lo mismo. Se incorpora para preguntarnos qué otra cosa puede llegar a ser la materia.
La comunicación puede transformarse en laboratorio de verificación pública, cartografía de narrativas de odio, simulador ético de crisis reputacional o tablero de análisis de conversación social. El diseño puede volverse taller de prototipado sostenible, evaluación algorítmica de accesibilidad o simulación de usuarios con necesidades diversas. Las humanidades pueden activar archivos, voces, memorias, traducciones, dilemas morales, escenarios prospectivos. Las artes pueden preguntarse por autoría, aura, cuerpo, copia, estilo y responsabilidad estética cuando la imagen ya no nace sólo de la mano, sino también del modelo.
La investigación sobre aprendizaje activo ya había mostrado esta necesidad. Scott Freeman y sus colegas, en un metaanálisis de 225 estudios, documentaron que las estrategias centradas en la participación, la resolución de problemas y la actividad cognitiva del estudiante elevan el desempeño promedio y reducen la reprobación frente a modelos exclusivamente expositivos. La imaginación algorítmica lleva ese hallazgo un paso más lejos: no basta con activar al estudiante. Hay que convertirlo en diseñador de mundos posibles.
Aquí aparece el aula como laboratorio de ignición. El profesor no llega sólo a “dar el tema”. Llega con una tensión pública, una pieza de desinformación, una crisis de representación, una falla de diseño, una controversia ética, una comunidad invisibilizada, una experiencia de consumo fracturada. Entra y pregunta: ¿cómo la intervenimos desde nuestra materia? Ese gesto modifica la arquitectura moral de la clase. El contenido deja de ser unidad cerrada y se convierte en combustible.
Por eso el MVP, el producto mínimo viable, puede ser una categoría pedagógica. No únicamente empresarial. Un MVP educativo es una primera encarnación funcional de una idea: algo que permite aprender al construir, probar, recibir retroalimentación y volver a intentar. Rompe con la cultura escolar del producto perfecto entregado al final del semestre. Introduce una ética de iteración. El error deja de ser cadáver académico y se vuelve dato. La corrección deja de ser castigo y se convierte en rediseño.
La universidad necesita menos tareas terminales y más bitácoras de pensamiento en movimiento.
Microsoft y LinkedIn reportaron en 2024 que el 75% de los trabajadores del conocimiento ya usaba IA generativa en el trabajo y que su adopción casi se había duplicado en seis meses. El Foro Económico Mundial estima que 39% de las habilidades clave requeridas en el mercado laboral cambiarán hacia 2030. Estas cifras deben leerse con distancia crítica, pero no pueden ignorarse. La presión cultural es evidente: la IA ya forma parte de los ecosistemas profesionales hacia los que se dirigen nuestros estudiantes. Formarlos sólo para repetir contenidos es prepararlos para un mundo que se está retirando mientras ellos aún toman apuntes.
El centro del problema, sin embargo, no está en el alumno. Está en la imaginación docente. Durante décadas, muchos profesores fueron formados para entender la docencia como transmisión, control y evaluación de productos cerrados. La imaginación algorítmica exige otro ethos: el profesor como curador de problemas, diseñador de retos, arquitecto de experiencias, mentor de prototipos, editor de procesos, garante ético y plataforma de lanzamiento.
No desaparece su autoridad. Se vuelve más fina. Ya no descansa en saber más datos que el estudiante, sino en orientar mejor las preguntas, cuidar el rigor, tensionar la solución fácil, exigir fundamento, proteger la dignidad de las personas involucradas y convertir cada herramienta en ocasión de pensamiento.
UNESCO propone que los docentes desarrollen competencias de IA en cinco dimensiones: mentalidad centrada en lo humano, ética de la IA, fundamentos y aplicaciones, pedagogía con IA y aprendizaje profesional. Para los estudiantes, plantea una formación orientada a usuarios responsables y cocreadores de IA, no consumidores pasivos de plataformas. Esa palabra, cocreadores, debería resonar como campana universitaria. El estudiante no puede limitarse a pedirle cosas a una máquina. Debe aprender a interrogarla, gobernarla, corregirla, situarla, auditarla y responsabilizarse de sus efectos.
Esta pedagogía, sin embargo, necesita una ética robusta. No todo debe desplegarse. No todo prototipo merece escalar. No toda ocurrencia debe convertirse en producto. La velocidad sin discernimiento produce daño.
La IA trabaja con datos, sesgos, opacidades, probabilidades, patrones culturales sedimentados. Cada MVP educativo tendría que incorporar preguntas mínimas de responsabilidad: ¿qué datos usamos?, ¿tenemos derecho a usarlos?, ¿a quién representa este modelo?, ¿a quién excluye?, ¿qué daño podría producir?, ¿qué decisión humana no debe delegarse?, ¿cómo explicamos sus límites?, ¿qué evidencia tenemos de que mejora el aprendizaje y no sólo el rendimiento aparente?
Las Academias Nacionales de Ciencia, Ingeniería y Medicina, en Estados Unidos, en el reporte: How people learn, recuerdan que el aprendizaje depende de la interacción entre conocimientos previos, motivación, cultura, contexto social y diseño de ambientes; ninguna tecnología educa por sí misma. Por eso la imaginación algorítmica no es tecnofilia. Es humanismo operativo en tiempos de inteligencia artificial. No idolatra la máquina. La pone a trabajar al servicio de la comprensión, la creatividad, la justicia y la solución responsable de problemas.
Simondon advertía que la cultura moderna había separado al ser humano de los objetos técnicos, tratándolos como entidades ajenas o inferiores, cuando en realidad toda técnica expresa una relación profunda entre imaginación, materia y mundo. La IA exige reconciliar educación y técnica desde una condición nueva: no formar usuarios fascinados, sino sujetos capaces de comprender la génesis, operación, límite y responsabilidad de los sistemas con los que piensan.
El aula de la imaginación y la creatividad algorítmica se parece menos a un salón y más a una base de lanzamiento. Hay combustible conceptual. Hay tripulación. Hay cálculo. Hay riesgo. Hay explosiones menores. Hay rediseño. Hay misión. El profesor no es el cohete. Es la plataforma. Su grandeza está en permitir que otros despeguen.
Cada clase debería dejar una pregunta ardiendo, una herramienta en construcción, una hipótesis en prueba, una solución mínima en marcha, una conversación ética abierta. Allí la educación recupera algo que nunca debió perder: su capacidad de encender mundos.
El aula que no despliega se queda hablando de futuro. El aula que despliega empieza a construirlo. La universidad tendrá que decidir si quiere formar estudiantes que entreguen tareas impecables o comunidades capaces de imaginar, diseñar y responsabilizarse de aquello que ponen en marcha. Porque quizá la pregunta decisiva ya no sea qué tanto sabe un alumno al terminar la clase, sino qué mundo mínimo, digno, crítico y habitable fue capaz de comenzar a construir con lo que aprendió. La frase de hoy: "Deploy or die".




Comentarios