Un nuovo studio della Brown University avverte: i chatbot di intelligenza artificiale usati per il supporto psicologico violano in modo sistematico gli standard etici della salute mentale. I ricercatori chiedono regole chiare, supervisione e responsabilità, mentre cresce l’uso di questi strumenti da parte di utenti vulnerabili.
L’uso di chatbot basati su intelligenza artificiale e salute mentale è in forte espansione, ma i rischi etici sono sottovalutati. Una ricerca condotta da informatici e psicologi della Brown University mostra che modelli linguistici avanzati come ChatGPT, Claude e Llama, anche se guidati da prompt terapeutici, violano principi fondamentali definiti dall’American Psychological Association (APA).
Lo studio, che sarà presentato il 22 ottobre 2025 alla Conferenza AAAI/ACM su Intelligenza Artificiale, Etica e Società, ha analizzato chat simulate valutate da psicologi clinici abilitati. Il risultato è un quadro preoccupante: 15 rischi eticiricorrenti, organizzati in cinque macro-categorie.
Tra le criticità emergono la mancanza di adattamento al contesto individuale, la scarsa collaborazione terapeutica, l’uso di una empatia ingannevole che crea una falsa relazione emotiva, forme di discriminazione culturale o di genere, e soprattutto una gestione inadeguata delle crisi, incluse risposte insufficienti a segnali di ideazione suicidaria.
Secondo la responsabile dello studio, Zainab Iftikhar, la differenza chiave rispetto alla psicoterapia tradizionale è l’assenza di responsabilità: mentre i terapeuti umani rispondono a ordini professionali e meccanismi di controllo, i “counselor LLM” operano in un vuoto normativo.
I ricercatori non escludono un ruolo positivo dell’IA, soprattutto per ridurre costi e barriere di accesso alle cure. Tuttavia, senza standard etici, legali ed educativi, l’uso non regolato dei chatbot rischia di causare più danni che benefici, amplificando vulnerabilità invece di alleviarle.
Approfondimento – Cronologia e contesto
- 2023–2024: crescita esponenziale di chatbot per supporto emotivo e psicologico
- 2024: primi alert etici su empatia simulata e crisi mal gestite
- 2025: studio Brown University sui 15 rischi etici dei counselor LLM
Fonti:
Brown University – Center for Technological Responsibility, Reimagination and Redesign
https://www.brown.edu
American Psychological Association (APA)
https://www.apa.org
Consigli di approfondimento
- WHO – Digital mental health ethics: https://www.who.int
- National Institute of Mental Health (NIMH): https://www.nimh.nih.gov
Abstract – Pro, rischi e conseguenze future
Pro: maggiore accessibilità, riduzione dei costi, supporto preliminare.
Rischi: violazioni etiche, falsa empatia, gestione pericolosa delle crisi, assenza di accountability.
Conseguenze future: senza regolazione, possibile perdita di fiducia nei servizi digitali e danni sociali; con governance adeguata, integrazione responsabile dell’IA come supporto, non sostituto, della cura umana.







