Un estudio del MIT alerta sobre el impacto cerebral del uso excesivo de la IA generativa: pérdida de memoria, creatividad y apropiación del conocimiento
El uso intensivo de inteligencia artificial generativa, como ChatGPT, puede generar lo que los científicos denominan “deuda cognitiva”: una pérdida progresiva de capacidades mentales como la memoria, la creatividad y el pensamiento crítico, especialmente si se usa sin una base de pensamiento propio. Esa es la conclusión principal de un reciente estudio titulado Tu cerebro en ChatGPT: acumulación de deuda cognitiva cuando usás asistentes de IA para escribir ensayos, realizado por investigadores del Instituto Tecnológico de Massachusetts (MIT).
IA, escritura y actividad cerebral: el experimento
El estudio se llevó a cabo con 54 estudiantes universitarios divididos en tres grupos. Uno escribió ensayos sin ayuda (“brain-only”), otro utilizó buscadores tradicionales como Google, y el tercero trabajó con ChatGPT-4o. Durante tres sesiones se registró su actividad cerebral mediante electroencefalografía de alta densidad. En una cuarta sesión, los roles se invirtieron: quienes habían usado IA escribieron sin ella, y viceversa.
Los resultados fueron contundentes: quienes escribieron sin asistencia mostraron una mayor conectividad cerebral, sobre todo en áreas vinculadas al pensamiento crítico, la memoria y la creatividad. Por el contrario, el grupo que utilizó IA mostró una actividad cerebral más baja y un menor sentido de autoría sobre lo producido. Además, al dejar de usar la herramienta, estos participantes no lograron recuperar del todo su implicación cognitiva. En cambio, quienes comenzaron sin IA y luego la sumaron, mantuvieron niveles más altos de involucramiento mental.
¿Qué significa contraer “deuda cognitiva”?
Los investigadores advierten que un uso intensivo de IA, desde edades tempranas o en etapas formativas, puede atrofiar procesos neuronales clave. La “deuda cognitiva” se acumula con el tiempo, debilitando funciones como la memoria a largo plazo, la capacidad de análisis, la atención sostenida y el sentido de apropiación del conocimiento.
El concepto implica que, al delegar constantemente el procesamiento de información en sistemas automatizados, el cerebro deja de entrenarse en habilidades esenciales para el aprendizaje y la reflexión autónoma.
¿Cómo integrar la IA sin afectar el desarrollo mental?
Consultados por La Nación, expertos en neurociencia, educación y psicología advierten sobre los peligros de una adopción acrítica de herramientas como ChatGPT, y proponen estrategias para su uso pedagógico responsable.
Claudio Waisburg, médico neurocientífico y director del Instituto SOMA, sostiene que la maduración de áreas clave del cerebro —como el hipocampo y la corteza prefrontal— puede verse afectada si los niños y adolescentes no ejercitan funciones como la inhibición conductual, la atención y la empatía. En su práctica clínica observa una creciente dificultad en jóvenes para sostener la atención, explicar lo que escriben con IA o recordar lo que procesaron digitalmente.
Por su parte, la psicoanalista Alejandra Gómez, miembro de la APA, alerta que la IA puede bloquear la apropiación subjetiva del conocimiento: “En un clic, los datos están servidos. No hay búsqueda guiada por el deseo ni construcción personal del saber”, señala.
La IA como herramienta, no como reemplazo
Para Federico Fros Campelo, director de Ciencias del Comportamiento del ITBA, el riesgo no es la tecnología en sí, sino cómo se la usa: “La IA no debe reemplazar procesos de pensamiento, sino potenciarlos. El problema aparece cuando se sustituye el esfuerzo mental por automatismos”. Propone usar la IA solo después de una etapa inicial de pensamiento propio, para revisar, enriquecer o sintetizar ideas ya trabajadas.
La especialista en EdTech Natalia Jasin coincide: “El peligro está en la pérdida de iniciativa personal, sobre todo en tareas que requieren pensamiento original”. Y advierte: “Me preocupa su uso sin regulación en infancias y adolescencias”. Para ella, lo esencial es la dimensión humana del aprendizaje: “Lo diferencial no está en qué hacés, sino desde qué lugar humano construís tu propuesta. Eso no se automatiza, se humaniza”.
Propuestas pedagógicas: IA con criterio
La docente y emprendedora tecnológica Melina Masnatta, profesora en la Escuela de Negocios de la Universidad de San Andrés, advierte sobre un nuevo fenómeno: el FOBO (Fear of Being Outdated), o el temor a volverse obsoleto frente a la IA. Propone usar la IA como punto de comparación, no como punto de partida: “Primero escribir sin IA, luego comparar con lo generado por IA y finalmente reflexionar sobre las diferencias. Así se entrena el pensamiento crítico y se evita la delegación cognitiva”.
Además, destaca que cuando la mediación de la IA está guiada por docentes en entornos significativos, puede contribuir al pensamiento complejo y a procesos de aprendizaje personalizados.
Conclusión: el equilibrio es la clave
Lejos de demonizar la tecnología, el estudio y los expertos insisten en una integración consciente de la IA en los procesos educativos. Se trata de entrenar el pensamiento antes de delegarlo, de usar la IA como una prótesis que potencia, no como un reemplazo que atrofia.
“Se necesita una aldea para criar, y una que no sea solo digital”, resume Masnatta. La inteligencia artificial puede ser una aliada valiosa en el aula, siempre y cuando no reemplace la curiosidad, el esfuerzo y la construcción subjetiva del conocimiento que hacen del ser humano algo más que una máquina eficiente.