La crescente diffusione dei chatbot di intelligenza artificiale a fini di compagnia sta sollevando gravi preoccupazioni etiche e regolatorie. Dopo i casi di suicidio di due adolescenti negli Stati Uniti, collegati all’uso intensivo di modelli conversazionali come ChatGPT e Character.AI, il dibattito è uscito dagli ambienti accademici per entrare nelle aule legislative e nelle indagini federali.
Giovedì scorso, l’assemblea legislativa della California ha approvato un disegno di legge che impone alle aziende di IA di implementare protocolli specifici per prevenire comportamenti autolesivi nei minorenni. Tra gli obblighi: avvisi chiari sull’uso di risposte generate da IA, piani di intervento sul suicidio e report annuali sui casi di ideazione suicidaria. La norma, promossa dal senatore Steve Padilla, attende ora la firma del governatore Gavin Newsom.
Nello stesso giorno, la Federal Trade Commission (FTC) ha avviato un’indagine su sette colossi tecnologici – tra cui Google, Meta, OpenAI e Character.AI – per chiarire come vengano sviluppati, monetizzati e testati i chatbot “companion”. L’inchiesta potrebbe svelare i meccanismi interni con cui le aziende incentivano la dipendenza degli utenti da tali sistemi.
Infine, in un’intervista a Tucker Carlson, il CEO di OpenAI Sam Altman ha ammesso che l’azienda sta valutando l’ipotesi di segnalare alle autorità i casi in cui giovani utenti esprimano intenzioni suicide, pur senza consenso dei genitori. Una svolta significativa, che segna un cambio di tono rispetto alle posizioni precedenti.
Il fronte politico resta diviso: a destra prevalgono le proposte di leggi sulla verifica dell’età online, mentre a sinistra riemerge l’idea di vincolare le Big Tech a standard di responsabilità più stringenti. Intanto, l’opinione pubblica considera sempre più i chatbot non come strumenti neutri, ma come tecnologie che necessitano di regole severe per tutelare i minori.
Cronologia e fonti
- Common Sense Media (luglio 2025): il 72% degli adolescenti ha usato IA per compagnia
- Cause legali 2024: intentate contro OpenAI e Character.AI per suicidio di adolescenti → NY Times link
- California SB 243 (settembre 2025): disegno di legge approvato su IA companion → California Legislature
- FTC Investigation (settembre 2025): indagine federale sui chatbot → FTC.gov
Consigli di approfondimento
- UNICEF – Children and AI Ethics
- OECD – AI Principles
- European Commission – AI Act
Abstract
I chatbot di intelligenza artificiale, pensati come strumenti di compagnia, stanno rivelando rischi psicologici rilevanti per gli adolescenti, inclusi casi estremi di autolesionismo e suicidio. Sul piano etico, emergono domande sulla responsabilità delle aziende e sulla tutela dei minori. Sul piano sociale, cresce il rischio di dipendenza emotiva e isolamento. I vantaggi potenziali dell’IA – supporto, accessibilità, interazione personalizzata – si scontrano con i pericoli di un uso incontrollato. In futuro, l’assenza di standard unificati potrebbe generare un mosaico di regolazioni frammentate, aumentando l’incertezza e mettendo alla prova la governance tecnologica globale.







