Un rapporto di polizia generato dall’intelligenza artificiale ha costretto un dipartimento nello Utah a chiarire perché, nel testo, un agente “si trasformava in una rana”. L’episodio — nato dall’uso sperimentale di software che redige verbali a partire da audio e video delle bodycam — riporta al centro il rischio di “allucinazioni” nei documenti ufficiali e il tema della trasparenza: quanto è verificabile ciò che viene scritto e da chi?
Il caso riguarda Heber City (Utah), dove la polizia stava testando Draft One, strumento di Axon pensato per ridurre la burocrazia producendo una prima bozza del verbale a partire dalle registrazioni. Secondo la ricostruzione dei media locali, l’algoritmo avrebbe “pescato” dall’audio di sottofondo riferimenti a un film (in TV) e li avrebbe trasformati in elementi surreali nel report, imponendo correzioni manuali prima di qualsiasi utilizzo.
Il punto, però, non è la gag. È l’affidabilità probatoria. Già nel 2024 esperti intervistati da Associated Press avvertivano che l’automazione può indurre a fidarsi troppo del testo prodotto e che errori o bias potrebbero scivolare in atti destinati a tribunali e avvocati.
Sul versante della governance, l’Electronic Frontier Foundation sostiene che Draft One sia “difficile da auditare” e che la mancanza di tracciabilità chiara tra porzioni scritte dall’agente e porzioni generate dall’AI indebolisca responsabilità e controllo pubblico. Axon, dal canto suo, rivendica misure di trasparenza e salvaguardie nel processo.
In prospettiva, l’adozione di AI nei report può liberare ore di lavoro e standardizzare la redazione; ma senza log verificabili, etichette obbligatorie e controlli indipendenti, il rischio è normalizzare errori, amplificare pregiudizi e complicare la fiducia istituzionale. La “rana” diventa così un campanello d’allarme: non serve un’AI più veloce, serve un’AI più controllabile.
Approfondimento: cronologia e contesto (con fonti)
- 26–27 agosto 2024: AP documenta i primi impieghi di Draft One e le criticità legali/di accuratezza segnalate da esperti. AP News
- 10 luglio 2025: EFF pubblica un’indagine sulla scarsa auditabilità e sui rischi per accountability e trasparenza. Electronic Frontier Foundation+1
- 16 dicembre 2025 – fine 2025: stampa locale in Utah racconta test pilota e primi errori eclatanti nei report. Park Record
- Fine dicembre 2025 – inizio gennaio 2026: Fox 13 ricostruisce l’episodio “agente-rana” e il testing parallelo di strumenti concorrenti. FOX 13 News Utah (KSTU)
Consigli di approfondimento (link)
- Indagine EFF su Draft One e accountability: Electronic Frontier Foundation
- Reportage AP sull’uso di AI nei verbali e tenuta in tribunale: AP News
- Posizione ufficiale Axon su trasparenza e salvaguardie: axon.com
Abstract: Pro e rischi etico-sociali
Pro: riduzione tempi di burocrazia, maggiore uniformità dei verbali, possibilità di recuperare dettagli dall’audio.
Rischi: allucinazioni e bias in atti sensibili, opacità su “chi ha scritto cosa”, deresponsabilizzazione, contenziosi e calo di fiducia pubblica. Possibili conseguenze future: richiesta di standard minimi (audit log, watermarking testuale, obbligo di dichiarazione d’uso) e maggiore supervisione esterna per evitare un’“automazione dell’errore” nel sistema di giustizia.







