Un’inchiesta del New York Times evidenzia la crescente presenza su YouTube di video per bambini generati con intelligenza artificiale. Secondo i test condotti dai giornalisti, oltre il 40% dei contenuti suggeriti in 15 minuti di navigazione conteneva elementi visivi creati da AI. Pediatri e psicologi dello sviluppo temono che questi video, caratterizzati da immagini iper-stimolanti e prive di narrazione, possano avere effetti negativi sullo sviluppo cognitivo dei bambini più piccoli.
L’algoritmo di YouTube spinge contenuti AI per l’infanzia
La piattaforma video di Google sta mostrando con sempre maggiore frequenza contenuti generati automaticamente destinati ai bambini, soprattutto nei formati brevi come YouTube Shorts.
Secondo l’inchiesta pubblicata dal New York Times, i giornalisti hanno analizzato oltre 1.000 video suggeriti ai minori, scoprendo che molti di essi presentano animazioni artificiali e scenari bizzarri, come animali trasformati in veicoli o creature ibride utilizzate per insegnare l’alfabeto.
Questi contenuti vengono spesso presentati come video educativi, ma in realtà risultano privi di una vera struttura narrativa. La semplicità del format – ad esempio sequenze di animali o lettere dell’alfabeto – consente ai creator di produrre grandi quantità di video con strumenti di generazione automatica.
Il rischio di sovraccarico cognitivo nei bambini
Secondo Jenny Radesky, pediatra dello sviluppo presso l’Università del Michigan, il problema principale non è solo la qualità dei contenuti, ma il modo in cui catturano l’attenzione dei bambini.
Le immagini generate dall’AI possono essere visivamente intense e iperrealistiche, creando una stimolazione continua che potrebbe sovraccaricare le capacità cognitive dei più piccoli.
La psicologa dello sviluppo Rachel Barr, direttrice del Georgetown University Early Learning Project, sottolinea che i bambini apprendono meglio da contenuti con personaggi riconoscibili e narrazioni coerenti, elementi spesso assenti nei video generati automaticamente.
Algoritmi, monetizzazione e contenuti “industriali”
Il fenomeno è alimentato dalla logica economica delle piattaforme. I video generati con AI permettono di produrre grandi volumi di contenuti a costi minimi, aumentando la probabilità di accumulare visualizzazioni e ricavi pubblicitari.
Secondo il neuroscienziato Mitch Prinstein dell’Università della Carolina del Nord, è possibile che questi video siano progettati per massimizzare l’attenzione degli utenti, ma servono ulteriori studi per comprendere gli effetti a lungo termine sui bambini.
YouTube richiede ai creator di dichiarare l’uso dell’intelligenza artificiale solo quando i contenuti risultano “realistici”, ma non impone etichette specifiche per animazioni o contenuti cartooneschi generati da AI, lasciando ai genitori la responsabilità di monitorare la visione.
Approfondimento: cronologia del dibattito su AI e minori
- 2023–2024 – Cresce l’uso di strumenti di generazione video con AI generativa.
Fonte: OECD – AI and children’s digital environments
https://www.oecd.org - 2024 – L’Organizzazione Mondiale della Sanità raccomanda limiti al tempo di esposizione agli schermi per i bambini sotto i 5 anni.
Fonte: WHO
https://www.who.int - 2025 – Studi sulla relazione tra uso intensivo di schermi e disturbi dell’attenzione nei bambini.
Fonte: American Academy of Pediatrics
https://publications.aap.org - 2026 – L’inchiesta del New York Times evidenzia la diffusione di video AI su YouTube destinati ai bambini.
Consigli di approfondimento
- American Academy of Pediatrics – Media use in children
https://www.aap.org - WHO – Guidelines on screen time for children
https://www.who.int - Georgetown University Early Learning Project
https://elrc.georgetown.edu
Abstract: implicazioni etiche e sociali
Pro
- L’intelligenza artificiale può produrre contenuti educativi personalizzati e accessibili.
- Riduzione dei costi di produzione e maggiore disponibilità di materiali didattici digitali.
Rischi
- Sovraccarico cognitivo dovuto a stimoli visivi intensi.
- Riduzione della qualità narrativa dei contenuti educativi.
- Mancanza di trasparenza sull’uso dell’AI nei video per bambini.
Conseguenze future
Il caso evidenzia la necessità di regole più chiare sulle piattaforme digitali riguardo ai contenuti generati automaticamente per minori. Senza standard di etichettatura e controllo algoritmico, l’ecosistema mediatico rischia di essere dominato da contenuti progettati per catturare attenzione più che per favorire lo sviluppo educativo.







