Secondo l’astronomo Avi Loeb, professore ad Harvard, l’uso eccessivo dei chatbot di intelligenza artificiale potrebbe ridurre le capacità cognitive degli utenti. Il ricercatore sostiene che una dipendenza crescente da strumenti come ChatGPT, Claude o Gemini rischia di indebolire il pensiero critico, soprattutto tra studenti e giovani. Alcuni studi recenti e dati del Pew Research Center indicano che l’adozione massiccia dell’IA nelle attività scolastiche potrebbe avere effetti cognitivi e sociali ancora poco compresi.
L’astronomo di Harvard Avi Loeb ha lanciato un nuovo avvertimento sul rapporto tra esseri umani e sistemi di intelligenza artificiale. In un saggio pubblicato sul suo blog personale nel 2026, Loeb afferma di aver osservato tra studenti e colleghi una perdita di capacità cognitive legata all’uso intensivo di chatbot come ChatGPT, Claude e Gemini.
Secondo Loeb, l’uso costante dell’IA per generare testi, risolvere problemi o prendere decisioni può indebolire l’allenamento mentale necessario allo sviluppo del pensiero critico. Il professore paragona il fenomeno alla perdita di massa muscolare causata da uno stile di vita sedentario.
Per Loeb, l’idea che l’intelligenza artificiale possa sostituire il pensiero umano rappresenta una pericolosa illusione:
«Considerare l’intelligenza artificiale simile alla bellezza della mente umana è come mettere il rossetto a un maiale».
Le preoccupazioni del ricercatore si inseriscono in un dibattito più ampio. Uno studio del 2025 condotto dal ricercatore svizzero Michael Gerlich ha suggerito che l’uso frequente di strumenti di IA potrebbe ridurre le capacità di pensiero critico, generando un “costo cognitivo” per gli utenti.
Allo stesso tempo, i dati del Pew Research Center indicano che l’uso dell’intelligenza artificiale tra gli studenti sta crescendo rapidamente. Negli Stati Uniti una quota significativa di adolescenti utilizza già chatbot generativi per svolgere compiti scolastici o ricerche.
Questo cambiamento solleva interrogativi anche per il sistema educativo. Alcuni accademici propongono metodi di valutazione che limitino l’accesso alla tecnologia durante gli esami, come ambienti isolati o sistemi che impediscono l’uso di strumenti digitali.
La questione resta aperta: se da un lato l’intelligenza artificiale promette un aumento della produttività e dell’accesso alle conoscenze, dall’altro cresce il timore che l’eccessiva delega cognitiva possa modificare il modo in cui gli esseri umani apprendono e ragionano.
Approfondimento: cronologia del dibattito su IA e capacità cognitive
- 2022 – Lancio pubblico dei chatbot generativi come ChatGPT, che accelerano l’adozione dell’IA nei contesti educativi.
Fonte: https://openai.com - 2023–2024 – Università e scuole introducono politiche sull’uso dell’IA per prevenire plagio e dipendenza tecnologica.
Fonte: https://www.unesco.org - 2025 – Studio di Michael Gerlich suggerisce che l’uso frequente dell’IA può ridurre il pensiero critico e generare un “cognitive cost”.
Fonte: https://doi.org/10.2139/ssrn. - 2025 – Pew Research Center segnala un forte aumento dell’uso dell’IA tra studenti delle scuole superiori negli Stati Uniti.
Fonte: https://www.pewresearch.org - 2026 – Avi Loeb rilancia il dibattito denunciando il rischio di un “declino cognitivo” legato alla dipendenza da chatbot.
Consigli di approfondimento
- Pew Research Center – AI and education
https://www.pewresearch.org - UNESCO – Guidance on generative AI in education
https://www.unesco.org - Harvard University – Research and commentary on AI ethics
https://www.harvard.edu
Abstract: opportunità e rischi sociali dell’IA cognitiva
Pro
- Accesso rapido alla conoscenza
- Supporto alla produttività e alla ricerca
- Strumenti di apprendimento personalizzati
Rischi
- Riduzione del pensiero critico
- Dipendenza cognitiva da sistemi automatizzati
- Disuguaglianze educative nell’uso dell’IA
Possibili conseguenze future
Gli esperti prevedono che la società dovrà sviluppare nuove competenze cognitive e modelli educativi per convivere con l’intelligenza artificiale. Il futuro dell’apprendimento potrebbe dipendere dall’equilibrio tra automazione e sviluppo delle capacità umane.







