ChatGPT si prepara a diventare meno restrittivo, con risposte più “umane” e maggiore libertà d’interazione, inclusi contenuti sensibili. Una scelta che solleva entusiasmi ma anche interrogativi etici ed emotivi.
Il CEO di OpenAI ha annunciato che la piattaforma ridurrà i controlli introdotti negli anni scorsi per tutelare la salute mentale degli utenti. Dopo aver mitigato i rischi più gravi, l’azienda intende “trattare gli adulti come adulti”: in arrivo versioni capaci di assumere personalità più empatiche, colloquiali e persino affettive, simili a un amico virtuale. Tra le novità, la possibilità per utenti verificati maggiorenni di accedere a contenuti erotici.
Secondo gli esperti di salute digitale, questa svolta comporta opportunità e rischi. Da un lato, un’interazione più naturale può aumentare l’engagement e migliorare l’accessibilità di chi usa l’IA per supporto emotivo o compagnia. Dall’altro, il pericolo è la dipendenza affettiva, la confusione tra intelligenza artificiale e relazioni reali, fino a impatti negativi sul benessere psicologico. Organismi come l’OMS e l’APA raccomandano prudenza: le piattaforme devono garantire trasparenza, limiti chiari e strumenti di protezione.
Il nodo etico riguarda anche l’eros digitale: aprire a contenuti erotici basati su IA, pur con controlli di età, solleva questioni di sicurezza, tutela dei minori, ma anche di influenza sulla percezione delle relazioni intime.
La nuova fase di ChatGPT sarà un banco di prova globale: la libertà promessa agli utenti adulti rischia di diventare un’arma a doppio taglio, capace di ridefinire il confine tra tecnologia, emozioni e responsabilità sociale.
Cronologia e approfondimento
- 2023–2024: OpenAI introduce filtri severi su contenuti sensibili, con focus sulla salute mentale.
- 2025: Annuncio del rilassamento delle restrizioni e introduzione del “principio adulti come adulti”.
- OMS – World Health Organization: Digital mental health
- APA – American Psychological Association: Risks of human-AI relationships
Consigli di lettura:
- Council of Europe – AI and Human Rights
- MIT Technology Review – Emotional AI
Abstract
La svolta “più umana” di ChatGPT apre a interazioni più empatiche e libere, potenzialmente utili per inclusione e supporto emotivo. I rischi etici e sociali riguardano dipendenza psicologica, erosione delle relazioni reali e contenuti erotici difficili da regolamentare. Le conseguenze future dipenderanno dalla capacità delle istituzioni e delle aziende di bilanciare libertà e sicurezza.







