top of page

¿Qué pasa con tu cerebro cuando usas ChatGPT para escribir un ensayo?

  • 15 sept
  • 5 Min. de lectura

Por Eduardo Portas Ruiz // Profesor investigador del Centro de Investigación para la Comunicación Aplicada (CICA) de la Universidad Anáhuac México


Desde que los sistemas comerciales de inteligencia artificial generativa como ChatGPT comenzaron a popularizarse entre 2021 (beta testers) y 2022 (lanzamiento general) millones de estudiantes abrazaron la nueva tecnología como una bendición frente a los trabajosos ensayos solicitados por sus profesores.


La tradición de escribir ensayos escolares de manera sistematizada tiene más de cien años en las escuelas. No es que no se escribieran antes, pero los docentes conocían a la perfección que escribir un ensayo requería las facultados más altas de un estudiante, por lo que se dejaban para los momentos más importantes de un ciclo escolar.

Foto: Flicker / James Cridland / Think here/ CC BY 2.0// Ilustración: Eduardo Portas
Foto: Flicker / James Cridland / Think here/ CC BY 2.0// Ilustración: Eduardo Portas

Cualquier persona que lo haya tratado antes sabe que este tipo de género literario–el “centauro de los géneros”, le llamó Alfonso Reyes–exige al escritor todas sus facultades: creatividad, habilidad léxica, capacidad de síntesis, agilidad de citación, y sobre todo, claridad y profundidad de pensamiento. Un buen ensayo no se escribe en un día.


ChatGPT acabó con esa regla que ya venía tambaleándose desde que apareció el internet y la facilidad de plagiar las ideas y textos de otra persona. Aún antes, algunas personas cobraban por la actividad y lo enviaban por correo postal al feliz solicitante que lo contactaba mediante un anuncio colocado con regularidad afuera de cualquier escuela.


En esencia, ChatGPT permitió a cualquier persona crear un ensayo en segundos. Ensayos aceptables con una simple solicitud (prompt). Ensayos eficientes, cumplidores, y casi siempre robóticos que requieren poco esfuerzo mental pero cierran la brecha entre un cero y un siete.


Esa poca o nula actividad mental que millones de maestros ya sospechaban de sus estudiantes que entregaban estos ensayos maquilados con inteligencia artificial ahora se ha confirmado gracias a un estudio neurocientífico del MIT Media Lab encabezado por Nataliya Kosmyna, Eugene Hauptmann, Ye Tong Yuan, Jessica Situ, Xian-Hao Liao, Ashly Vivian Beresnitzky, Iris Braunstein, y Pattie Maes titulado “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task” (2025).


El troquel de la IA tiene consecuencias claras en la mente, de acuerdo con los autores. En resumidas cuentas, las redes neuronales del cerebro apenas se activan cuando un estudiante usa los sistemas de IA operados con Grandes Modelos de Lenguaje (LLMs) sin tan siquiera leer sobre el tema del ensayo. Los científicos descubrieron esto a partir del uso de electroencefalografía durante la escritura. Dividieron a los estudiantes en tres grupos: aquellos que solo usarían IA para redactar el ensayo, los que solo podrían usar buscadores de internet como Google, y los que únicamente utilizaron su mente, sin ningún tipo de ayuda externa.


“La conectividad cerebral se redujo sistemáticamente en función del nivel de apoyo externo: el grupo solo cerebro exhibió las redes más fuertes y de mayor alcance, el grupo de motor de búsqueda mostró un compromiso intermedio, y la asistencia del LLM provocó el acoplamiento más débil en términos generales”, afirman los autores.


Como elemento novedoso para esta investigación experimental, al final se hizo una ronda con inversión de papeles. Los estudiantes que habían usado AI fueron obligados a escribir el ensayo sin ningún tipo de ayuda y a los que solo usaron su mente ahora se les permitió usar ChatGPT. Los resultados llamaron la atención: las personas acostumbradas a escribir sin ningún tipo de ayuda externa desarrollaron mucho mayor actividad cerebral que cualquier otro grupo. Las personas que solo habían usado IA para la tarea tuvieron problemas para completar la asignatura.


No solo eso, las personas que fueron obligadas a usar su mente durante el ejercicio sin ningún tipo de herramienta externa mostraron de manera consistente mayor capacidad para citar lo que habían escrito y hacer el ensayo auténticamente suyo (ownership).


“A medida que el impacto educativo del uso de LLM comienza a asentarse en la población general, este estudio pone de manifiesto una cuestión urgente: la probable disminución de las habilidades de aprendizaje [...] La conectividad cerebral se redujo sistemáticamente en función del nivel de apoyo externo: el grupo solo cerebro exhibió las redes más fuertes y de mayor alcance, el grupo de motor de búsqueda mostró un compromiso intermedio, y la asistencia del LLM generó el acoplamiento más débil en términos generales”, sentencian los investigadores.


Y más aún:


“En conjunto, estos hallazgos respaldan la idea de que las herramientas de apoyo externo reestructuran no solo el desempeño en la tarea, sino también la arquitectura cognitiva subyacente. El grupo solo cerebro aprovechó redes neuronales amplias y distribuidas para generar contenido de manera interna; el grupo de motor de búsqueda se apoyó en estrategias híbridas de gestión de información visual y control regulatorio; y el grupo LLM optimizó la integración procedimental de las sugerencias generadas por inteligencia artificial”.


[...]


“A medida que aumenta la dependencia de herramientas de inteligencia artificial, es fundamental prestar atención a cómo estos sistemas afectan el desarrollo neurocognitivo, especialmente en lo que respecta a los posibles compromisos entre el apoyo externo y la síntesis interna”.

La ilustración muestra algunos resultados de los EEG utilizados para registrar la actividad cerebral de los estudiantes. Del lado izquierdo se ve a los que usaron solo IA (menor actividad). Fuente:  Kosmyna et al. (2025)
La ilustración muestra algunos resultados de los EEG utilizados para registrar la actividad cerebral de los estudiantes. Del lado izquierdo se ve a los que usaron solo IA (menor actividad). Fuente: Kosmyna et al. (2025)

Por si fuera poco, las personas que usaron sistemas de IA evidenciaron una menor variedad temática, lo que produjo una escritura sesgada y superficial. Los autores llaman a esta condición “deuda cognitiva”, en donde “la dependencia repetida de sistemas externos como los LLM reemplaza los procesos cognitivos esforzados necesarios para el pensamiento independiente. La deuda cognitiva aplaza el esfuerzo mental en el corto plazo, pero conlleva costos a largo plazo, como la disminución de la indagación crítica, mayor vulnerabilidad a la manipulación y menor creatividad”.


Para finalizar la investigación de 200 páginas, los científicos subrayan que el uso de sistemas de IA en campos educativos debe seguir un orden secuencial en donde primero se desarrollen las propias capacidades cognitivas de la persona y solo después se le permite acceder a estos sistemas.


Las recomendaciones para utilizar esa metodología constructivista-secuencial se centra en tres ejes: a) La dependencia temprana de la IA puede resultar en una codificación superficial, es decir, la escritura de tipo ensayo no fue integrada correctamente; b) Restringir el uso de herramientas LLM en las etapas iniciales podría favorecer la formación de la memoria; y c) El compromiso metacognitivo es mayor en el grupo Cerebro-a-LLM. “En conjunto, estos hallazgos respaldan un modelo educativo que retrasa la integración de la IA hasta que los estudiantes hayan realizado un esfuerzo cognitivo autónomo suficiente”, sintetizan.



La síntesis de la investigación puede ser leída aquí: https://www.brainonllm.com/


La investigación de 200 cuartillas se encuentra en esta liga: https://arxiv.org/abs/2506.08872

Comentarios


bottom of page