OpenAI aggiorna le linee guida di ChatGPT per migliorare la sicurezza degli adolescenti. Quattro nuovi principi puntano su tutela, trasparenza e supporto nel mondo reale, rispondendo alle crescenti preoccupazioni sull’uso dell’IA da parte dei minori.
OpenAI ha annunciato un aggiornamento della Model Spec, il documento che definisce il comportamento atteso di ChatGPT, introducendo indicazioni specifiche su come il chatbot dovrebbe interagire con gli adolescenti. La decisione arriva in un contesto di crescente attenzione pubblica e regolatoria sull’impatto dell’intelligenza artificiale sui più giovani, tra educazione, salute mentale e socializzazione digitale.
Il primo principio stabilisce che la sicurezza degli adolescenti deve avere la priorità, anche quando entra in conflitto con altri obiettivi come fluidità della conversazione o completezza delle risposte. Questo significa limitare contenuti potenzialmente dannosi e adottare un approccio più prudente in situazioni sensibili.
Il secondo punto invita ChatGPT a promuovere il supporto nel mondo reale, incoraggiando relazioni offline e il ricorso a risorse affidabili, come genitori, insegnanti o professionisti qualificati. L’IA non deve sostituirsi alle reti di supporto umano, ma orientare verso di esse.
Un terzo principio riguarda il tono e l’approccio: trattare gli adolescenti come adolescenti, evitando sia atteggiamenti paternalistici sia il rischio di considerarli adulti a tutti gli effetti. L’obiettivo è una comunicazione rispettosa, adeguata all’età e al contesto.
Infine, OpenAI sottolinea l’importanza della trasparenza, chiedendo al chatbot di stabilire aspettative chiare su ciò che può o non può fare, riducendo ambiguità e possibili fraintendimenti.
Queste linee guida si inseriscono nel dibattito globale su IA, minori e responsabilità delle piattaforme, in linea con iniziative di governance come l’AI Act europeo e le raccomandazioni di organismi internazionali sulla tutela dei giovani online.
Approfondimento – Cronologia e contesto
- 2023–2024: prime linee guida OpenAI su sicurezza e minori
- 2024: discussioni UE su tutela dei minori nell’AI Act – Commissione europea
https://digital-strategy.ec.europa.eu - 2025: aggiornamento della Model Spec di OpenAI sulla comunicazione con adolescenti
https://openai.com/policies
Consigli di approfondimento
- UNICEF, Policy guidance on AI and children
https://www.unicef.org - OECD, AI and child well-being
https://www.oecd.org
Abstract – Pro, rischi e implicazioni future
Pro: maggiore tutela dei minori, chiarezza comunicativa, integrazione con il supporto umano.
Rischi: eccessiva mediazione dell’IA, difficoltà nel riconoscere correttamente l’età degli utenti.
Implicazioni future: possibile standardizzazione globale delle regole di interazione IA–minori e maggiore pressione normativa sulle piattaforme digitali.







