Tra università, lavoro e vita quotidiana, l’intelligenza artificiale generativa sta diventando onnipresente. Ma per una parte crescente della Generazione Z non rappresenta una promessa di progresso: è una fonte di ansia profonda, legata al timore di perdere autonomia cognitiva, identità e umanità.
La diffusione accelerata dei modelli linguistici di grandi dimensioni (LLM) sta modificando il modo in cui studenti e giovani lavoratori apprendono, scrivono e prendono decisioni. Secondo Scott Anthony, ex analista McKinsey e oggi docente alla Dartmouth University, tra gli studenti universitari prevale sempre più “il terrore, non l’entusiasmo”. Il timore non riguarda solo l’uso scorretto dell’IA in ambito accademico, ma la possibilità che l’affidamento costante agli algoritmi indebolisca il pensiero critico.
Questa percezione trova riscontri empirici. Uno studio del MIT pubblicato nell’estate 2025 ha confrontato tre gruppi impegnati in attività di scrittura: uno supportato da LLM, uno da motori di ricerca tradizionali e uno senza alcun ausilio digitale. I partecipanti che utilizzavano l’IA hanno completato i compiti più rapidamente, ma hanno mostrato una minore propensione a valutare criticamente i contenuti prodotti dal sistema, con un “costo cognitivo” misurabile. Al contrario, il gruppo “solo cervello” ha dichiarato maggiore soddisfazione per il proprio lavoro e ha evidenziato livelli più elevati di connettività cerebrale.
A pesare è anche il contesto economico. A differenza dei docenti già stabilizzati, molti studenti percepiscono l’IA come una minaccia diretta all’occupabilità futura. In un mercato del lavoro sempre più automatizzato, la paura non è solo di essere sostituiti, ma di diventare dipendenti da strumenti che modellano il pensiero stesso.
Il risultato è un paradosso generazionale: nativi digitali che, di fronte all’IA, esprimono una resistenza culturale ed etica. Una reazione che segnala l’urgenza di politiche educative e regolatorie capaci di integrare l’intelligenza artificiale senza erodere le competenze umane fondamentali.
Approfondimento – Cronologia e contesto
- 2023–2024: diffusione massiva di LLM in ambito educativo e professionale
Fonte: OECD – AI in Education
https://www.oecd.org/education/ai - Estate 2025: studio MIT su IA e carico cognitivo
Fonte: MIT Media Lab
https://www.media.mit.edu - 2025: dibattito globale su salute mentale, giovani e IA
Fonte: World Health Organization
https://www.who.int
Consigli di approfondimento
- Pew Research Center – IA e giovani: https://www.pewresearch.org
- Commissione Europea, AI Act e istruzione: https://digital-strategy.ec.europa.eu
Abstract – Pro, rischi ed effetti sociali
Pro: supporto all’apprendimento, aumento della produttività, accesso rapido alle informazioni.
Rischi: dipendenza cognitiva, riduzione del pensiero critico, ansia identitaria e disuguaglianze occupazionali.
Conseguenze future: senza una governance etica e un’educazione all’uso consapevole, l’IA potrebbe accentuare fratture generazionali e ridefinire in modo problematico il rapporto tra tecnologia e umanità.







