Almeno 30 città statunitensi hanno annullato dal 2025 i contratti con Flock Safety, azienda leader nei lettori automatici di targhe basati su intelligenza artificiale. La decisione segue pressioni civiche, timori per privacy e casi di errori investigativi.
Dal gennaio 2025 almeno 30 città hanno interrotto i rapporti con Flock Safety, società specializzata in lettori automatici di targhe (ALPR) alimentati da algoritmi di intelligenza artificiale. Il dato è stato riportato da NPR, che ha documentato la crescente mobilitazione di attivisti e amministratori locali.
Secondo l’emittente, campagne civiche coordinate anche attraverso la piattaforma open source DeFlock hanno contribuito alla revoca dei contratti in città come Flagstaff, Eugene e Santa Cruz. Il sindaco di Flagstaff, Becky Daggett, ha dichiarato che la tecnologia non godeva più della fiducia della comunità.
DeFlock monitora oltre 77.000 lettori di targhe attivi negli Stati Uniti. Gli ALPR raccolgono immagini e dati di localizzazione dei veicoli, generando archivi dettagliati sugli spostamenti. Organizzazioni per i diritti civili, tra cui l’American Civil Liberties Union, hanno in più occasioni avvertito che tali sistemi possono favorire profilazione razziale, errori investigativi e violazioni della privacy.
Un caso emblematico citato da NPR riguarda una donna di Denver accusata di furto sulla base della presenza del suo veicolo in zona rilevata da un sistema ALPR. Successivi dati GPS hanno dimostrato che l’auto non si era fermata sul luogo del reato.
Il dibattito si inserisce in un contesto più ampio: il Department of Homeland Security e l’Immigration and Customs Enforcement hanno ampliato l’uso di strumenti digitali per il controllo dell’immigrazione, suscitando critiche da parte di associazioni e giuristi.
Approfondimento – Cronologia e contesto
- 2020–2024: espansione rapida dei sistemi ALPR in diverse città USA (fonte: ACLU, report “You Are Being Tracked”).
- 2023: studi accademici evidenziano rischi di bias nei sistemi di riconoscimento automatizzato (MIT Media Lab).
- 2025–2026: crescita delle campagne civiche per la trasparenza sugli appalti pubblici legati alla sorveglianza AI (NPR).
Fonti ufficiali e istituzionali:
- ACLU – Report su ALPR: https://www.aclu.org
- NPR – Inchiesta su Flock Safety: https://www.npr.org
- DHS – Documenti su tecnologie di sorveglianza: https://www.dhs.gov
Consigli di approfondimento:
- Electronic Frontier Foundation (EFF) – Surveillance Self-Defense Guide: https://www.eff.org
- Brennan Center for Justice – Privacy & Surveillance: https://www.brennancenter.org
Abstract – Pro e rischi etico-sociali
I sistemi ALPR promettono efficienza investigativa e supporto alle forze dell’ordine nella prevenzione dei reati. Tuttavia, la raccolta massiva di dati di localizzazione solleva criticità su privacy, proporzionalità e governance algoritmica. Errori di identificazione possono generare accuse ingiuste, mentre l’uso in ambito migratorio accentua tensioni sociali. Senza trasparenza, audit indipendenti e limiti normativi chiari, l’espansione della sorveglianza AI rischia di erodere fiducia pubblica e diritti fondamentali, aprendo scenari di controllo pervasivo difficili da reversare.







