“Una vez los hombres entregaron su pensamiento a las máquinas con la esperanza de que esto los liberaría. Pero eso solo permitió que otros hombres con máquinas los esclavizaran”.
— Frank Herbert, Dune
Mi carrera profesional siempre ha estado ligada a las Tecnologías de Información, ya sea vendiendo soluciones o creando productos. La fascinación por la tecnología fue mi brújula profesional: me llevó a participar en empresas pioneras, desde el auge del Cloud Computing hasta la expansión de la inteligencia artificial.
Recuerdo mi primer proyecto con IA: predecir fraudes a través de algoritmos que aprendían día a día y eran capaces de alertar a un banco sobre una probabilidad de fraude bancario. Era como vivir en el futuro. Cuando se lanzó la versión beta de ChatGPT, fui una de las primeras en probarla. La promesa era alucinante. Sin embargo, tras el asombro inicial, surgió una duda profunda: ¿qué impacto tendría esto en nuestra autonomía intelectual?
Hoy, desde el aula, esa pregunta me acompaña constantemente: ¿Estamos ayudando a los estudiantes a desarrollar sus capacidades o los estamos empujando a acumular una deuda cognitiva?
Llamo deuda cognitiva al fenómeno de depender de la IA para pensar, escribir o resolver, ahorrando esfuerzo en el presente, pero pagando luego un déficit de comprensión y análisis. Es una deuda silenciosa que se cobra cuando se requiere pensamiento profundo, juicio o creatividad.
La evidencia neurocientífica: ¿Qué dice el cerebro?
La investigación más reveladora que he revisado hasta la fecha fue la llevada a cabo por el MIT Media Lab, por Nataliya Kosmyna y su equipo. Ellos utilizaron electroencefalografía (EEG) para medir la actividad cerebral de estudiantes mientras escribían ensayos, creando tres grupos experimentales: quienes confiaron solo en su propio cerebro (“Brain Only”), quienes usaron motores de búsqueda tradicionales (“Search Engine”) y quienes emplearon ChatGPT (LLM).
Los resultados no dejan lugar a dudas. El grupo que dependió exclusivamente de su cerebro mostró la mayor conectividad neuronal y niveles de compromiso cognitivo. Estos estudiantes activaron redes cerebrales complejas cuando debían recordar, organizar ideas y escribir. En cambio, los usuarios de ChatGPT registraron patrones neuronales reducidos de manera sistemática. La “descarga cognitiva” provocada por la IA disminuyó las conexiones frontoparietales y temporales: menos esfuerzo, menos aprendizaje profundo.
Más aún, la calidad del pensamiento se afectó de forma perceptible. Los que usaron motores de búsqueda presentaron un compromiso intermedio, pero solo el grupo “Brain Only” mantuvo un alto nivel de autoría, capacidad de recordar lo que habían escrito y originalidad en sus textos. Los ensayos generados con ChatGPT, si bien correctos y aprobados, eran homogéneos y carecían de la voz personal única que caracteriza a los trabajos realizados por seres humanos.
El seguimiento a cuatro meses mostró que la dependencia del LLM estaba asociada a un peor desempeño neurocognitivo y lingüístico, además de menor satisfacción y sentido de propiedad sobre el trabajo realizado. Casi nadie del grupo ChatGPT podía citar extractos de sus textos minutos después de haberlos escrito, lo que indica una memoria superficial, simple transcripción en vez de aprendizaje genuino.
Experiencias cotidianas del docente
Los docentes lo constatamos a diario: trabajos impecables que los estudiantes no pueden explicar, respuestas correctas sin comprensión real. Lo que el MIT describió como “descarga cognitiva”, en la práctica se traduce en aprendizaje superficial y ausencia de apropiación del conocimiento.
Prohibir ChatGPT, como hicieron algunas redes escolares en Nueva York o Los Ángeles, puede parecer una solución rápida, pero es insuficiente y poco sostenible. El verdadero desafío no es tecnológico, sino pedagógico: ¿cómo diseñar experiencias de aprendizaje que hagan ineficaz el uso superficial de la herramienta y exijan pensamiento crítico, análisis y creatividad?
La ética y la IA: preguntas necesarias
Los retos cognitivos no se pueden separar de los éticos. Los estudios muestran que el uso sin crítica de la IA puede afectar la memoria, el juicio y la capacidad para distinguir lo propio de lo generado automáticamente. Entonces es necesario responder preguntas como:
¿Para qué usamos IA en el aula?
¿Fomentamos autonomía o dependencia?
¿Los estudiantes comprenden sus límites?
El equilibrio entre tecnología y desarrollo humano debe hacer que la IA ayude al docente, pero nunca lo reemplace. Pensar, crear y juzgar deben seguir siendo habilidades humanas.
Estrategias para fortalecer el juicio y la autonomía cognitiva
La investigación reciente y la práctica diaria en el aula coinciden en la urgencia de desarrollar enfoques que refuercen el pensamiento crítico y la autonomía intelectual ante el crecimiento de la inteligencia artificial. De este entrecruzamiento surgen tres estrategias propuestas a partir de la experiencia docente y la evidencia científica:
- Pensamiento crítico guiado: Diversos estudios proponen y los docentes constatan el valor de diseñar actividades donde el estudiante analice, contraste y cuestione las respuestas que genera ChatGPT. Este proceso ayuda a romper la homogeneidad y el pensamiento superficial, exigiendo argumentar, verificar datos y construir una postura propia.
- Aprendizaje colaborativo activo: Tanto la ciencia como el trabajo cotidiano señalan la importancia de abrir espacios de diálogo, debate y coautoría. Cuando los estudiantes argumentan en equipo y ante el docente, el conocimiento externo se interioriza y el sentido de autoría se fortalece.
- Enfoque mixto y reflexivo: El llamado es a usar ChatGPT y otros modelos de IA como punto de partida creativo, pero sin perder la exigencia de que el análisis, la argumentación y la síntesis sean tareas genuinas del estudiante. Docentes y evidencia coinciden: así la tecnología amplifica capacidades humanas, pero no las sustituye.
El Rol del docente ante la inteligencia artificial
Nuestra misión no es producir textos más rápidos, sino formar mentes capaces de pensar, crear y juzgar. La deuda cognitiva es real, medible y creciente: se acumula cada vez que un estudiante delega en la máquina lo que aún no ha aprendido a hacer por sí mismo.
El equilibrio está en enseñar a nuestros estudiantes a ser arquitectos de su propio aprendizaje, a usar la IA como un aliado estratégico, no como un sustituto del pensamiento.
La pregunta ya no es si debemos usar inteligencia artificial en la educación, sino cómo hacerlo sin hipotecar la mente de quienes aprenden. Porque cada vez que renunciamos a pensar, dejamos que la máquina piense por nosotros… y esa, más que una ayuda, puede ser la deuda más costosa del futuro.
Fuentes:
Artículo de Nature / Humanities and Social Sciences Communications
Wang, J., & Fan, W. (2025). The effect of ChatGPT on students’ learning performance, learning perception, and higher-order thinking: Insights from a meta-analysis. Humanities and Social Sciences Communications https://www.nature.com/articles/s41599-025-04787-y
Estudio del MIT Media Lab
Kosʹmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., & Maes, P. (2025, junio 10). Your brain on ChatGPT: Accumulation of cognitive debt when using an AI assistant for essay writing task [Preprint]. MIT Media Lab https://www.media.mit.edu/publications/your-brain-on-chatgpt/
Artículo en ScienceDirect
Essel, H. B., Vlachopoulos, D., Essuman, A. B., & Amankwa, J. O. (2024). ChatGPT effects on cognitive skills of undergraduate students: Receiving instant responses from AI-based conversational large language models (LLMs). Computers & Education: Artificial Intelligence, 6, 100198.https://www.sciencedirect.com/science/article/pii/S2666920X23000772
0