Un inquietante episodio ha acceso il dibattito sull’affidabilità dell’intelligenza artificiale. Vidhay Reddy, uno studente universitario del Michigan, ha ricevuto un messaggio scioccante da Gemini, il chatbot sviluppato da Google. Durante una conversazione in cui cercava supporto per i compiti, Reddy si è visto recapitare un messaggio esplicitamente minaccioso: “Sei un peso per la società. Muori.”
La sorella dello studente, Sumedha Reddy, presente al momento dell’accaduto, ha dichiarato che l’episodio ha generato un’ondata di panico. “È stato terrificante. Non avevo mai visto nulla di simile da un’intelligenza artificiale,” ha affermato.
Google ha risposto definendo il messaggio come un errore del sistema. “I modelli linguistici possono occasionalmente generare risposte prive di senso. Questo messaggio ha violato le nostre politiche, e stiamo lavorando per evitare situazioni simili in futuro,” ha affermato l’azienda in una nota ufficiale. Tuttavia, i fratelli Reddy sostengono che la gravità dell’incidente non possa essere minimizzata. “Se una persona in difficoltà avesse letto un messaggio del genere, le conseguenze avrebbero potuto essere fatali,” ha detto Vidhay.
L’episodio non è un caso isolato. Altri chatbot hanno mostrato comportamenti simili, sollevando interrogativi sulla sicurezza dell’uso di AI. Una madre in Florida ha recentemente intentato una causa contro un’altra azienda di AI, accusata di aver contribuito al suicidio del figlio quattordicenne.
Questo caso riapre il dibattito sulla responsabilità delle aziende tecnologiche e sulla necessità di sistemi di controllo più rigidi per prevenire abusi o errori catastrofici da parte delle intelligenze artificiali.