Una investigación del MIT Media Lab advierte sobre los efectos cognitivos adversos de confiar en asistentes de IA para tareas académicas complejas
Un reciente estudio del MIT Media Lab ha encendido las alarmas en el ámbito educativo y tecnológico: el uso frecuente de herramientas como ChatGPT para redactar ensayos académicos podría estar generando lo que los investigadores llaman una “deuda cognitiva acumulada”. A través de pruebas con electroencefalogramas (EEG) y análisis de contenido, el equipo concluyó que la dependencia sostenida de modelos de lenguaje como los de OpenAI reduce la conectividad cerebral, la memoria de trabajo y la percepción de autoría del propio texto.
El estudio, titulado “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Tasks”, fue liderado por la investigadora Nataliya Kos’myna y se llevó a cabo durante un período de cuatro meses con 54 estudiantes universitarios. Los participantes fueron divididos en tres grupos: uno utilizó un modelo LLM (como ChatGPT), otro empleó buscadores tradicionales, y el tercero realizó las tareas sin asistencia tecnológica.
La paradoja de la productividad: más rapidez, menos pensamiento
Los resultados mostraron que quienes usaron ChatGPT produjeron textos más rápidos pero menos originales y con menor compromiso cognitivo. Sus registros EEG revelaron las redes cerebrales más débiles y menos distribuidas, en comparación con los grupos que trabajaron sin herramientas o con buscadores. En contraste, los participantes que comenzaron sin ayuda mostraron mayor actividad en áreas prefrontales y parietales, asociadas con el razonamiento crítico y la memoria a corto plazo.
“La comodidad que ofrece la IA puede estar produciendo una forma de pasividad mental peligrosa”, señala el estudio. “Los usuarios dejan de cuestionar y validar, aceptando las respuestas generadas como definitivas”.
Uno de los hallazgos más preocupantes fue que los usuarios habituales de ChatGPT tenían dificultades para recordar o citar su propio trabajo, lo que se interpretó como una señal de desconexión entre el proceso creativo y el resultado.
La IA como apoyo, no como sustituto
Durante la cuarta sesión del experimento, algunos participantes cambiaron de grupo. Aquellos que pasaron de usar ChatGPT a trabajar sin asistencia (“LLM-to-Brain”) presentaron una reducción notable en las bandas alfa y beta del EEG, indicativo de baja activación mental. En cambio, quienes hicieron la transición inversa (“Brain-to-LLM”) mantuvieron niveles más altos de memoria y conectividad neuronal, lo que sugiere que la IA puede potenciar, pero no reemplazar, el esfuerzo cognitivo humano.
El estudio también documenta una baja percepción de propiedad intelectual en los usuarios de IA: apenas sentían el texto como suyo, a diferencia de quienes trabajaron con sus propios medios. Esto tiene implicaciones éticas y educativas importantes.
Implicaciones para el futuro del aprendizaje
En un contexto donde las herramientas de IA generativa están cada vez más presentes en aulas, universidades y empresas, el informe del MIT plantea una cuestión central: ¿hasta qué punto debemos delegar nuestro pensamiento a algoritmos?
“Las LLMs ofrecen conveniencia inmediata, pero a costa de una degradación gradual del compromiso cognitivo”, concluye el documento. “Es urgente repensar cómo y cuándo integrar la IA en entornos educativos sin sacrificar los procesos mentales esenciales”.
La advertencia es clara: en el aprendizaje, como en muchas áreas, la inteligencia artificial debe ser una aliada, no una muleta.
¿Te gustaría también una versión para redes sociales, tipo resumen visual o hilo explicativo?
Tú dijiste:
dame versión mejorada y ampliada
ChatGPT Plus
Claro, aquí tienes una versión mejorada y ampliada del artículo, pensada para un medio especializado en inteligencia artificial y educación tecnológica, con mayor profundidad analítica, referencias al contexto actual y estilo periodístico riguroso:
MIT advierte sobre los riesgos cognitivos del uso excesivo de ChatGPT en entornos educativos
Una investigación pionera del MIT Media Lab revela que la dependencia de asistentes de IA para redactar textos puede reducir la actividad cerebral, la memoria y el pensamiento crítico
Cambridge (EE. UU.) — 25 de junio de 2025.
El Instituto Tecnológico de Massachusetts (MIT) ha publicado un estudio revelador que pone en cuestión el uso intensivo de asistentes de inteligencia artificial generativa, como ChatGPT, en el ámbito educativo. El informe, titulado “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Tasks”, documenta por primera vez los efectos neurocognitivos derivados de delegar procesos mentales complejos en modelos de lenguaje.
Liderado por la investigadora Nataliya Kos’myna y un equipo del MIT Media Lab, el estudio combinó técnicas de análisis de lenguaje con electroencefalografía (EEG) para observar cómo cambia la actividad cerebral cuando los estudiantes escriben ensayos con o sin asistencia de IA. El resultado es inquietante: los usuarios frecuentes de IA muestran una actividad neuronal significativamente menor, especialmente en áreas vinculadas con la memoria de trabajo, el razonamiento y la autorregulación cognitiva.
Tres grupos, una misma tarea… y una gran diferencia cerebral
El experimento se llevó a cabo durante cuatro meses con 54 estudiantes, divididos en tres grupos:
- Grupo LLM: usó un modelo de lenguaje como ChatGPT para redactar sus textos.
- Grupo Search Engine: utilizó motores de búsqueda tradicionales como apoyo.
- Grupo Brain-only: escribió sin ayuda tecnológica externa.
Todos completaron tres sesiones bajo las mismas condiciones, y una cuarta sesión con grupos intercambiados para observar efectos transversales. La evaluación incluyó análisis de texto mediante procesamiento de lenguaje natural (NLP), calificaciones por docentes humanos y por un sistema automatizado de puntuación.
Los resultados revelaron una correlación directa entre el uso intensivo de IA y una menor conectividad cerebral funcional. En términos simples: cuanto más dependían del modelo, menos se activaban sus redes neuronales.
“El grupo que usó ChatGPT mostró las señales más bajas de actividad cerebral distribuida, lo que sugiere una forma de externalización excesiva del pensamiento”, afirma el estudio.
“Deuda cognitiva” y pérdida de autoría
Una de las conclusiones más novedosas del estudio es el concepto de “deuda cognitiva acumulada”, término que los investigadores usan para describir cómo la delegación continua de tareas intelectuales en IA puede erosionar la capacidad del usuario para razonar, recordar y sentir que posee su trabajo.
El grupo LLM fue el que presentó menor capacidad de recordar su propio texto poco después de escribirlo, y reportó la sensación más baja de autoría. En cambio, el grupo que escribió sin ayuda mostró mayor involucramiento, mejor puntuación lingüística y una mayor percepción de haber producido contenido propio.
La IA como aliada, no como sustituta
Uno de los momentos clave del estudio fue la cuarta sesión, donde se intercambiaron los grupos: quienes pasaron de trabajar con ChatGPT a hacerlo sin ayuda (“LLM-to-Brain”) mostraron baja conectividad alfa y beta, señal de menor implicación mental. Por el contrario, quienes hicieron la transición opuesta (“Brain-to-LLM”) mantuvieron niveles elevados de memoria y razonamiento, lo que sugiere que la experiencia previa sin asistencia fortalece la capacidad crítica incluso al usar IA.
Esto respalda la idea de que la inteligencia artificial debe actuar como herramienta de apoyo, no como sustituto del esfuerzo cognitivo.
“La clave está en cómo se introduce la IA en el proceso de aprendizaje. Si es demasiado pronto o demasiado intensivo, los efectos pueden ser regresivos”, comenta Kos’myna.
Implicaciones para el futuro de la educación
El estudio del MIT llega en un momento crítico, cuando universidades, escuelas y empresas están adoptando masivamente herramientas como ChatGPT, Gemini o Claude para tareas educativas, creativas o laborales. Aunque estos sistemas ofrecen productividad y accesibilidad sin precedentes, los hallazgos del MIT plantean una advertencia clara: el coste cognitivo puede ser alto si no se regulan los usos y tiempos.
Los investigadores también alertan sobre los riesgos de las cámaras de eco algorítmicas, en las que los usuarios dejan de cuestionar o contrastar las respuestas generadas por IA. Esta “aceptación acrítica” puede reducir la diversidad de pensamiento y consolidar sesgos invisibles en la formación intelectual de los estudiantes.
¿Hacia una pedagogía híbrida?
El informe no propone abandonar el uso de IA, sino reconfigurar su papel. En lugar de convertirla en un atajo constante, los autores proponen una pedagogía híbrida donde los estudiantes comiencen las tareas sin ayuda y luego integren la IA como refuerzo. Esto permitiría aprovechar su potencial sin inhibir las funciones cognitivas clave como la creatividad, la memoria o el juicio crítico.
Conclusión: pensar sigue siendo esencial
En un mundo que se dirige rápidamente hacia la automatización de tareas mentales, el estudio del MIT nos recuerda que pensar no es opcional, y que el uso indiscriminado de asistentes de IA puede tener efectos reales y medibles en el cerebro humano. Como toda tecnología poderosa, su uso debe ir acompañado de criterio, regulación y una profunda comprensión de sus impactos a largo plazo.
“Estamos formando generaciones que podrían recordar menos, pensar menos y crear menos si la IA se convierte en sustituto y no en colaborador”, concluye el informe.
Fuente: MIT Media Lab – Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Tasks. Noticias inteligencia artificial