Turno para pensar
- hace 3 días
- 4 Min. de lectura

Por Gabriela Iluminada Calderon // Estudiante de la Licenciatura de Comunicación de la Universidad Anáhuac Cancún
Durante décadas dimos por hecho que cada generación sería más inteligente que la anterior. Más información, más educación, más herramientas — esa era la lógica del progreso. Pero los datos recientes empiezan a insinuar algo distinto. Y entonces aparece una paradoja incómoda: vivimos en la época con más acceso al conocimiento en toda la historia, y sin embargo cada vez ejercitamos menos algo que, paradójicamente, suena más sencillo que expresarnos: el pensar por nosotros mismos.
La inteligencia artificial nos coqueteó como una salida fácil: terminar antes una tarea, resolver en segundos un ensayo. Pero del otro lado de esa comodidad está una verdad más engañosa: la sustitución lenta de nuestra capacidad de retención, de análisis y de pensamiento crítico, incluso de la seguridad en nuestras propias palabras. ¿Para qué rompernos el caco intentando escribir algo que quizá nos dé un ocho o un nueve, si una máquina puede hacerlo en segundos y asegurarnos el diez?
La inteligencia artificial, como cualquier otra herramienta tecnológica, debió llegar para facilitarnos ciertas tareas, no para pensar por nosotros. Y mucho menos para reemplazar procesos fundamentales como el análisis, la argumentación o el desarrollo de ideas propias.
Hace apenas una semana, mientras estaba en mi clase de las siete de la mañana, salí un momento del aula. Al regresar, mientras caminaba entre las mesas de mis compañeros, conté más de siete pantallas abiertas en distintos distractores: alguien en Instagram, otra persona en TikTok, alguien jugando, incluso una persona viendo un partido. La escena no era extraordinaria. Más bien parecía normal.
Porque, en el fondo, muchos saben que cuando la profesora pida escribir una cuartilla sobre el tema de la clase, la reacción más inmediata será abrir su inteligencia artificial favorita y pedirle que lo haga en cuestión de segundos.
El debate público sobre la inteligencia artificial en la educación superior suele centrarse en una preocupación muy específica: el plagio. ¿Usarán los estudiantes IA para escribir ensayos? ¿Podrán detectarlo los profesores? ¿Cómo podrían las universidades regular el uso de la tecnología?
Sin embargo, algunos especialistas advierten que el problema es otro. En un análisis publicado por Forbes México se plantea que el mayor riesgo de la inteligencia artificial en la educación no es hacer trampa, sino la erosión del aprendizaje mismo. Cuando las herramientas de IA pueden ofrecer explicaciones, borradores o soluciones de manera inmediata, la tentación es delegar las partes más difíciles del proceso educativo.
Pero es precisamente en esa dificultad donde ocurre el aprendizaje real.
La psicología cognitiva ha demostrado que los estudiantes desarrollan comprensión profunda cuando escriben, revisan, fallan, vuelven a intentar, lidian con la confusión y reformulan sus argumentos. Ese proceso incómodo —pero necesario— es el que construye pensamiento crítico.
En otras palabras: aprender también implica equivocarse.

Hace algunos meses escuché a una amiga contar que a once personas de su salón les cancelaron su examen de titulación después de ser sorprendidos utilizando inteligencia artificial durante la prueba. El debate se centró inmediatamente en la trampa. Pero quizás la pregunta más importante es otra: incluso sabiendo que debemos estudiar, ¿seguimos confiando en nuestra capacidad de obtener una buena calificación sin depender de una máquina?
El problema quizás no es solo que los estudiantes busquen facilitarse el trabajo. El problema aparece cuando empezamos a perder la confianza en nuestras propias ideas. Cuando, incluso después de haber estudiado, dudamos de si podremos resolver un examen sin recurrir a una herramienta externa. Cuando preferimos arriesgarnos haciendo trampa antes que enfrentar la posibilidad de equivocarnos por nuestra cuenta.
Ese es, en parte, el resultado de años acostumbrándonos a delegar pequeñas tareas cognitivas a la tecnología: recordar números de teléfono, calcular rutas o buscar cualquier dato en segundos. Los psicólogos llaman a esto descarga cognitiva: el proceso mediante se externalizan ciertos esfuerzos mentales hacia herramientas externas.
Durante mucho tiempo esa delegación se limitó a la memoria o al cálculo. Pero con la llegada de herramientas generativas como ChatGPT la delegación comenzó a alcanzar procesos más complejos. Ahora también delegamos la redacción, el análisis y el desarrollo de ideas.
Y ahí es donde la pregunta deja de ser tecnológica y se vuelve intelectual.
Porque cuando dejamos de practicar esos procesos —escribir, argumentar, equivocarnos y volver a intentar— no solo estamos resolviendo una tarea más rápido. También estamos dejando de ejercitar las habilidades que hacen posible el pensamiento crítico.
La inteligencia artificial puede ser una herramienta poderosa. Pero si dejamos que piense por nosotros, tarde o temprano empezaremos a dudar de nuestra capacidad de hacerlo sin ella.
Y cuando eso ocurra, ya no se tratará de tecnología. Se tratará de la pérdida de algo mucho más básico: nuestro derecho a pensar.
Fuentes consultadas:
EISIKOVITS, N., & Burley, J. (2026, 22 febrero). El mayor riesgo de la IA en la educación superior no es hacer trampa, sino la erosión del aprendizaje en sí. Forbes México.
Ocklenburg, S., PhD. (2026, 19 febrero). Un nuevo estudio ofrece perspectivas de cómo la IA afecta aprender nuevas cosas. Psychology Today.
Velasco, I. H. (2020, 28 octubre). «Los “nativos digitales” son los primeros niños con un coeficiente intelectual más bajo que sus padres». BBC News Mundo.



Comentarios