Un errore di “allucinazione” dell’assistente AI Microsoft Copilot è finito in un rapporto ufficiale della polizia britannica, contribuendo a decisioni di sicurezza che hanno inciso sui diritti dei tifosi. Il caso riapre il dibattito sull’uso dell’intelligenza artificiale nei contesti di intelligence pubblica.
L’intelligenza artificiale entra nei processi decisionali delle forze dell’ordine, ma senza adeguati controlli può generare conseguenze concrete. È quanto emerge dal caso che coinvolge Microsoft Copilot e la polizia delle West Midlands, una delle più grandi forze di polizia del Regno Unito.
Nel 2025 un rapporto di intelligence calcistica ha incluso una partita mai avvenuta tra West Ham e Maccabi Tel Aviv. L’informazione errata ha contribuito alla classificazione come “ad alto rischio” di una gara di Europa League contro l’Aston Villa, portando al divieto di trasferta per i tifosi israeliani.
A confermare l’origine dell’errore è stato lo stesso capo della polizia delle West Midlands, Craig Guildford, in una lettera indirizzata alla Commissione Affari Interni del Parlamento britannico. Secondo quanto dichiarato, l’inesattezza derivava dall’uso di Microsoft Copilot, che avrebbe “allucinato” l’evento sportivo. In precedenza, la polizia aveva negato l’impiego dell’AI, attribuendo l’errore a un’attività di social media scraping.
Il caso solleva interrogativi rilevanti sull’affidabilità dei sistemi generativi in ambiti sensibili come la sicurezza pubblica. Microsoft avverte esplicitamente che Copilot “può commettere errori”, ma l’inclusione di dati inventati in un documento operativo evidenzia la mancanza di procedure di verifica umana.
Episodi simili sono già stati documentati da test indipendenti e da inchieste giornalistiche, che mostrano come gli assistenti AI possano produrre informazioni plausibili ma false, soprattutto quando non supportate da fonti strutturate. Al momento Microsoft non ha fornito commenti ufficiali sul caso.
— Approfondimento e contesto cronologico
- Novembre 2024 – Vietata la trasferta ai tifosi del Maccabi Tel Aviv per Aston Villa–Maccabi
https://www.birmingham.gov.uk - Dicembre 2024 – La polizia nega l’uso dell’AI nei report di intelligence
https://committees.parliament.uk - Gennaio 2026 – Ammissione ufficiale dell’uso di Copilot e dell’errore
https://www.theverge.com
Consigli di approfondimento
- Microsoft Copilot e limiti dei modelli generativi
https://www.microsoft.com/ai - AI e forze dell’ordine: rischi e governance
https://www.nature.com - Linee guida etiche sull’uso dell’AI pubblica (UK ICO)
https://ico.org.uk
Abstract – Pro, rischi e impatti sociali
L’uso dell’AI nei processi di intelligence promette efficienza e rapidità, ma comporta rischi elevati se non accompagnato da verifiche umane, trasparenza e responsabilità. Errori sistemici possono tradursi in limitazioni dei diritti, discriminazioni e perdita di fiducia nelle istituzioni. In prospettiva, l’integrazione dell’AI nella sicurezza pubblica richiederà standard di audit, tracciabilità delle fonti e responsabilità legale chiare per evitare effetti sociali distorsivi.







