Dopo la sparatoria del 10 febbraio 2026 alla Tumbler Ridge Secondary School, in Canada, OpenAI ha ammesso che l’autore dell’attacco possedeva due account ChatGPT, uno dei quali creato dopo il ban del primo. L’episodio ha riaperto il dibattito globale sulla sicurezza dell’intelligenza artificiale, sulla responsabilità delle piattaforme e sulla cooperazione tra aziende tecnologiche e forze dell’ordine.
Il caso Tumbler Ridge e la revisione dei protocolli AI
Il 10 febbraio 2026 una sparatoria nella Tumbler Ridge Secondary School, nella Columbia Britannica, ha provocato otto vittime e decine di feriti, secondo le autorità canadesi. Il presunto autore, Jesse Van Rootselaar, era già stato segnalato mesi prima all’interno dei sistemi di sicurezza di ChatGPT.
Secondo quanto dichiarato da OpenAI, l’account dell’uomo era stato bannato nel giugno 2025 dopo che alcuni messaggi avevano fatto emergere segnali interpretati dai dipendenti come potenziale rischio di violenza reale.
Tuttavia, dopo l’attacco, l’azienda ha scoperto che l’individuo era riuscito a creare un secondo account, aggirando il ban precedente. Questo secondo profilo è stato successivamente condiviso con le autorità canadesi.
Il caso è stato riportato dal Wall Street Journal e discusso dal governo canadese guidato dal primo ministro Mark Carney, che ha definito l’episodio un possibile fallimento dei sistemi di sicurezza delle piattaforme digitali.
Nuove regole di sicurezza per i chatbot
Dopo incontri con il governo federale canadese e con la provincia della British Columbia, OpenAI ha annunciato misure immediate di rafforzamento della sicurezza.
Tra i principali cambiamenti:
- creazione di un canale diretto con la polizia canadese per segnalare utenti pericolosi;
- sistemi più severi per impedire agli utenti bannati di creare nuovi account;
- nuovi criteri per segnalare conversazioni potenzialmente violente, anche senza prove di un piano imminente.
In precedenza, la società contattava le autorità solo in presenza di una “minaccia imminente e credibile” con indicazione di obiettivo, mezzi e tempi. Con il nuovo protocollo, anche comportamenti sospetti o pericolosi potranno essere segnalati.
Il governo canadese ha dichiarato di essere pronto a regolare i chatbot basati su IA se le aziende non dimostreranno standard di sicurezza adeguati.
Approfondimento e cronologia
Episodi e dibattito sulla sicurezza dei chatbot AI
- 2023–2024 – Prime linee guida globali sull’AI safety
- OECD AI Principles
- UNESCO Recommendation on the Ethics of AI
https://unesdoc.unesco.org/ark:/48223/pf0000381137
- 2024 – Dibattito su AI e sicurezza pubblica
Studi su uso improprio di modelli generativi in contesti criminali.
Fonte: Europol – The Impact of Generative AI on Policing.
https://www.europol.europa.eu - 2025 – Rafforzamento delle policy di sicurezza delle piattaforme AI
Molte aziende introducono sistemi di rilevamento delle minacce e ban automatici. - 2026 – Caso Tumbler Ridge
Primo caso mediatico in cui emerge il tema del bypass dei ban negli account AI.
Fonti principali:
- Wall Street Journal
- Governo del Canada
- dichiarazioni ufficiali OpenAI
Consigli di approfondimento
- OECD – Principles on Artificial Intelligence
https://oecd.ai/en/ai-principles - Europol – The Impact of Generative AI on Law Enforcement
https://www.europol.europa.eu - UNESCO – Recommendation on the Ethics of Artificial Intelligence
https://unesdoc.unesco.org/ark:/48223/pf0000381137
Abstract: opportunità e rischi sociali
L’episodio di Tumbler Ridge evidenzia una tensione crescente tra innovazione tecnologica e sicurezza pubblica. I chatbot basati su modelli linguistici sono strumenti potenti per educazione, lavoro e assistenza, ma possono essere sfruttati da individui con intenzioni dannose.
Pro
- supporto informativo globale
- accesso diffuso alla conoscenza
- assistenza in ambito sanitario, educativo e professionale
Rischi
- aggiramento dei sistemi di sicurezza
- difficoltà di identificazione degli utenti
- responsabilità legale delle piattaforme
In prospettiva, il caso rafforza la richiesta di cooperazione tra aziende AI, governi e istituzioni internazionali per sviluppare sistemi di monitoraggio, segnalazione e prevenzione più robusti.







