OpenAI rafforza le capacità di ChatGPT nel riconoscere segnali di disagio psicologico, riducendo del 65-80% le risposte inadeguate grazie alla collaborazione con oltre 170 esperti di salute mentale.
OpenAI ha annunciato un importante aggiornamento del modello GPT-5, volto a migliorare la gestione delle conversazioni sensibili. Grazie al contributo di oltre 170 psicologi, psichiatri e medici in 60 Paesi, ChatGPT è ora più attento nel riconoscere sintomi di psicosi, mania, ideazione suicidaria e dipendenza emotiva dall’intelligenza artificiale.
Il nuovo sistema identifica i segnali di rischio e orienta l’utente verso risorse professionali di supporto, integrando anche promemoria di benessere durante sessioni prolungate.
Le valutazioni cliniche mostrano progressi significativi: le risposte indesiderate sono diminuite del 65% nei casi di psicosi o mania, del 52% nelle conversazioni su suicidio e autolesionismo e dell’80% nella dipendenza emotiva. Inoltre, nelle conversazioni lunghe, GPT-5 ha mantenuto un’affidabilità superiore al 95%.
Secondo gli esperti coinvolti, il modello risponde oggi con maggiore empatia, rispetto e coerenza, evitando affermazioni che possano rafforzare convinzioni deliranti o dipendenze psicologiche. L’obiettivo è creare uno spazio di ascolto sicuro, incoraggiando l’utente a rivolgersi a familiari o professionisti qualificati.
OpenAI ha inoltre annunciato l’introduzione di nuove metriche standard di sicurezza, che includeranno anche la dipendenza emotiva e le emergenze di salute mentale non suicide nei futuri test di conformità.
📚 Approfondimento
Cronologia e fonti:
• OpenAI System Card – GPT-5 (2025)
• WHO – Mental health and suicide prevention
• NIH – AI and Mental Health Research
Consigli di approfondimento:
• “AI and Emotional Dependence” – Journal of Medical Internet Research
• “Ethical AI in Healthcare” – The Lancet Digital Health
🧭 Abstract
L’evoluzione di ChatGPT segna un passo cruciale verso una IA eticamente responsabile. Tra i vantaggi emergono la riduzione dei rischi di danno psicologico e la promozione del supporto umano reale. Tuttavia, permane il rischio di eccessiva fiducia emotiva nella macchina e di affidamento improprio in situazioni cliniche gravi. In prospettiva, l’integrazione con la sanità pubblica e protocolli di vigilanza etica sarà determinante per bilanciare utilità sociale e tutela della salute mentale.







