Il 2025 non ha chiarito il rapporto tra intelligenza artificiale e informazione, ma ha messo in luce scelte editoriali opposte: sperimentazioni responsabili, errori clamorosi e un nodo centrale che emerge con forza — l’etica dell’uso dell’IA nelle redazioni.
Nel 2025 l’intelligenza artificiale non ha provocato l’apocalisse dei deepfake temuta da molti, ma ha accentuato tensioni strutturali nel giornalismo. Tra accordi di licenza irrisolti, sperimentazioni silenziose e scivoloni pubblici, il settore ha mostrato quanto sia sottile il confine tra innovazione e perdita di fiducia.
Alcune testate hanno dimostrato che l’IA può rafforzare il giornalismo investigativo. Il Minnesota Star-Tribune ha utilizzato strumenti di analisi automatica per decodificare video e documenti legati a un attentato, accelerando verifiche cruciali sotto supervisione umana. Il New York Times ha sviluppato strumenti interni come Echo e Cheatsheet per supportare inchieste complesse basate su grandi archivi documentali.
Altre esperienze hanno evidenziato i rischi di un’adozione affrettata. Il Chicago Sun-Times ha pubblicato una guida estiva con libri inesistenti generati da ChatGPT. Il Los Angeles Times ha ritirato in pochi giorni un sistema di IA nelle pagine di opinione dopo che aveva prodotto contenuti inaccettabili. Fox News ha diffuso video generati dall’IA senza adeguata verifica, alimentando disinformazione.
Il Washington Post rappresenta il caso più emblematico: da un lato, un laboratorio continuo di prodotti basati sull’IA per valorizzare archivi e dati; dall’altro, l’assenza di guardrail chiari, feedback strutturati e policy aggiornate, con errori emersi nei podcast personalizzati e nei sistemi di sintesi automatica.
In controtendenza, Wikipedia, l’Associated Press, Full Fact e Maldita.es hanno investito su governance, trasparenza e prevenzione della disinformazione, dimostrando che l’IA può essere uno strumento di tutela dell’ecosistema informativo.
Il bilancio del 2025 suggerisce una lezione chiara: senza regole, responsabilità e supervisione umana, l’intelligenza artificiale non rafforza il giornalismo, ma ne erode le fondamenta.
———
Approfondimento: cronologia e contesto
- Aprile 2025 – Poynter & Associated Press AI Summit, New York: focus su etica e guardrail editoriali
https://www.poynter.org - 2024–2025 – Cause legali tra editori e aziende AI (USA)
https://www.reuters.com - 2025 – Linee guida IA di Wikipedia e report di enforcement
https://meta.wikimedia.org
Consigli di approfondimento
- European Fact-Checking Standards Network – Prebunking
https://efcsn.com - Poynter Institute – AI & Journalism
https://www.poynter.org/ethics-trust/
Abstract – Pro, rischi e implicazioni sociali
Pro: accelerazione delle inchieste, valorizzazione degli archivi, supporto al fact-checking.
Rischi: disinformazione automatizzata, perdita di fiducia, licenziamenti mascherati da innovazione.
Conseguenze future: senza governance condivisa, l’IA rischia di amplificare la crisi di credibilità dei media; con regole chiare, può diventare un’infrastruttura civica al servizio della verità.







