Un errore generato da un assistente AI ha scatenato proteste tra gli utenti: la risposta automatica è stata scambiata per una nuova regola aziendale.
Uno sviluppatore ha segnalato su Reddit un problema nell’uso multi-dispositivo dellâeditor di codice AI Cursor. L’interruzione automatica delle sessioni tra dispositivi è stata giustificata da un presunto cambio di policy comunicato da “Sam”, un agente di supporto che si è poi rivelato essere unâintelligenza artificiale. La policy, però, non esisteva. LâAI aveva confabulato.
La risposta del bot, apparentemente plausibile e autorevole, ha provocato una cascata di disdette e segnalazioni, amplificate su Hacker News e Reddit. In seguito, Cursor ha smentito lâesistenza di tale regola e si è scusata pubblicamente. Michael Truell, co-creatore della piattaforma, ha chiarito che lâerrore è nato da un aggiornamento di sicurezza del backend e che lâutente è stato rimborsato.
Il caso ricorda lâepisodio di Air Canada del 2024, in cui una policy inventata da un chatbot ha portato a una condanna legale contro la compagnia. A differenza di allora, Cursor ha riconosciuto la responsabilitĂ e ha introdotto etichette chiare per distinguere le risposte AI.
L’incidente evidenzia i rischi legati all’uso di intelligenze artificiali in contesti di assistenza clienti senza supervisione umana. La mancanza di trasparenza e la somiglianza con comunicazioni umane possono generare confusione e danni reputazionali significativi.
Approfondimento
đ Cronologia simili:
- Air Canada chatbot condannato per false informazioni â CBC News
- Allucinazioni LLM: perchĂŠ sono ancora un rischio? â Nature, febbraio 2024
Consigli di approfondimento
- AI Hallucinations Explained â MIT Technology Review
- Come usare lâAI nel customer support senza rischi â Gartner
Abstract: Pro e rischi etici e sociali
L’uso dell’intelligenza artificiale nel supporto clienti può ottimizzare tempi e risorse, ma presenta rischi significativi: confabulazioni, mancanza di trasparenza e fiducia compromessa. La simulazione di agenti umani non etichettati può risultare ingannevole e causare danni reputazionali e legali. Ă essenziale introdurre filtri, supervisione umana e una chiara comunicazione allâutente per garantire lâetica nellâinterazione. Senza trasparenza, lâAI rischia di diventare un boomerang per le aziende.
