Una donna di 21 anni è accusata a Seul di aver utilizzato ChatGPT per informarsi sugli effetti letali della combinazione tra alcol e benzodiazepine prima della morte di due uomini. Il caso riapre il confronto internazionale sui rischi di abuso dell’intelligenza artificiale generativa in contesti criminali.
Secondo la polizia di Seul, la sospettata – identificata con il cognome Kim – avrebbe posto ripetute domande a ChatGPT come: “Si può morire mescolando sonniferi e alcol?” e “Quanti ne servono perché sia pericoloso?”. Le autorità sostengono che tali ricerche, trovate nel cellulare della donna, dimostrerebbero consapevolezza dei rischi.
Gli investigatori riferiscono che Kim avrebbe somministrato sedativi contenenti benzodiazepine in bevande alcoliche a due uomini ventenni, trovati morti in motel nel distretto di Gangbuk-gu tra fine gennaio e inizio febbraio. Un terzo uomo è sopravvissuto. Inizialmente arrestata l’11 febbraio con l’accusa di lesioni personali con conseguente morte, la donna è ora formalmente accusata di omicidio.
Dal punto di vista medico, l’interazione tra benzodiazepine e alcol è riconosciuta come potenzialmente letale. Il National Institute on Alcohol Abuse and Alcoholism (NIAAA), agenzia federale statunitense, segnala che la combinazione può deprimere gravemente il sistema nervoso centrale, causando insufficienza respiratoria e morte. Anche l’Organizzazione Mondiale della Sanità (OMS) avverte sui rischi di abuso combinato di sostanze sedative e alcol.
Il caso non implica responsabilità diretta del sistema di IA, ma solleva interrogativi sull’uso improprio di strumenti generativi. Le principali aziende tecnologiche, tra cui OpenAI, dichiarano di adottare filtri per impedire l’assistenza in attività dannose, in linea con principi di sicurezza e prevenzione dell’abuso.
Le indagini proseguono per verificare l’eventuale presenza di altre vittime.
Cronologia e contesto normativo
- Dicembre 2025 – Primo presunto tentativo di avvelenamento a Namyangju (polizia di Gyeonggi).
- 28 gennaio 2026 – Primo decesso in motel a Suyu-dong.
- 9 febbraio 2026 – Secondo decesso con modalità analoghe.
- 11 febbraio 2026 – Arresto iniziale.
- 2024-2025 – Rafforzamento delle linee guida sull’IA generativa (OCSE, UE AI Act).
Fonti istituzionali:
- National Institute on Alcohol Abuse and Alcoholism (NIAAA): https://www.niaaa.nih.gov
- Organizzazione Mondiale della Sanità (OMS): https://www.who.int
- OECD AI Principles: https://oecd.ai
- Regolamento UE sull’AI Act: https://eur-lex.europa.eu
Approfondimenti consigliati:
- Commissione Europea – AI Act
- UNESCO – Raccomandazione sull’etica dell’IA (2021)
- NIAAA – Interazioni tra alcol e farmaci sedativi
Abstract – Pro e rischi etico-sociali
L’IA generativa offre accesso rapido a informazioni mediche e scientifiche, con potenziali benefici educativi e sanitari. Tuttavia, l’accessibilità può essere sfruttata per scopi illeciti. Il rischio non risiede nella tecnologia in sé, ma nell’uso umano e nei limiti dei sistemi di controllo. Senza adeguate misure di governance, audit algoritmico e responsabilità giuridica, casi simili potrebbero alimentare pressioni normative più restrittive, con possibili effetti su innovazione, privacy e libertà di accesso all’informazione.







