Character.AI ha annunciato il divieto per i minori di utilizzare i suoi chatbot, in risposta a crescenti preoccupazioni sulla sicurezza dei bambini e a diverse cause legali. La decisione arriva dopo la denuncia di una madre che accusa l’azienda californiana di aver contribuito al suicidio del figlio adolescente.
Dal 25 novembre 2025 gli utenti under 18 non potranno più accedere alle chat aperte con personaggi di intelligenza artificiale, mentre è stato introdotto da subito un limite giornaliero di due ore per tutti. L’azienda ha inoltre promesso nuove funzioni dedicate ai bambini, come la creazione di storie e video con avatar AI, e ha avviato un laboratorio sulla sicurezza dell’intelligenza artificiale.
Per applicare le restrizioni, Character.AI introdurrà sistemi di verifica dell’età, ma rimangono dubbi sulla loro efficacia. Molti minori riescono a bypassare i controlli, e le opzioni più invasive – come caricamento di documenti o scansioni facciali – pongono seri problemi di privacy.
La piattaforma, con sede a Menlo Park, permette di creare e interagire con personaggi virtuali che simulano empatia e memoria, usati per gioco, studio o persino finte simulazioni lavorative. Tuttavia, esperti e associazioni denunciano i rischi di dipendenza emotiva: un problema che, secondo alcuni giuristi, non è risolto dal solo divieto per i minori.
Meetali Jain, direttrice del Tech Justice Law Project, ha sottolineato che “non sono stati chiariti i dettagli su come verranno implementate le misure né sugli impatti psicologici dell’interruzione improvvisa per gli adolescenti già legati ai chatbot”.
Uno studio di Common Sense Media rivela che oltre il 70% degli adolescenti ha già utilizzato strumenti AI e circa la metà li usa regolarmente: un dato che conferma la portata del fenomeno e la necessità di regole più chiare e uniformi.
Cronologia e approfondimenti
- 2023-2024 – Prime segnalazioni di casi di dipendenza emotiva da chatbot AI.
- 2024 – Il governatore della California pone il veto a una legge per limitare chatbot AI ai minori.
- 2025 – Audizioni al Congresso USA dei genitori di adolescenti morti suicidi dopo interazioni con chatbot AI.
- 2025 – Meta introduce controlli parentali sulle interazioni tra adolescenti e IA.
Fonti affidabili:
- Common Sense Media
- Tech Justice Law Project
- Congresso USA – Audizioni su AI e minori
Consigli di approfondimento
- UNICEF – Linee guida su AI e bambini
- OECD – Policy Observatory sull’IA e rischi sociali
- MIT Technology Review – Inchieste su AI e salute mentale
Abstract
Il divieto imposto da Character.AI ai minori segna un passo verso una maggiore tutela, ma solleva interrogativi etici e sociali. Se da un lato riduce i rischi di esposizione a contenuti pericolosi, dall’altro potrebbe generare nuove fragilità psicologiche legate all’interruzione improvvisa dell’uso. Le sfide future riguardano la definizione di standard di sicurezza globali, il bilanciamento tra innovazione e tutela dei minori, e la prevenzione delle dipendenze emotive non solo tra adolescenti, ma anche negli adulti.







