Affidarsi ai chatbot di intelligenza artificiale per seguire l’attualità può compromettere la qualità dell’informazione. Un esperimento accademico condotto in Canada mostra errori sistematici, fonti inventate e contenuti fuorvianti, sollevando seri interrogativi etici e sociali sul ruolo dell’AI nel giornalismo.
L’uso dei chatbot AI come fonte primaria di notizie è sempre più diffuso, ma i dati suggeriscono che questa pratica può generare disinformazione strutturale. A dimostrarlo è l’esperimento di Jean-Hugues Roy, professore di giornalismo all’Université du Québec à Montréal, che per un mese si è informato esclusivamente tramite sette chatbot: ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Copilot (Microsoft), DeepSeek, Grok (xAI) e Aria (Opera).
Ogni giorno Roy ha posto la stessa richiesta: indicare i cinque eventi più importanti del Québec, con sintesi, titoli e fonti verificabili. Il risultato, pubblicato su The Conversation, è stato allarmante. Su 839 URL forniti complessivamente, solo 311 rimandavano a articoli reali. Ben 239 link erano incompleti e 140 del tutto non funzionanti. Nel 18% dei casi, le fonti erano simulate o rimandavano a siti non giornalistici, come pagine istituzionali o gruppi di pressione.
Anche tra i link validi, l’affidabilità restava problematica: meno della metà degli articoli corrispondeva fedelmente ai riassunti generati dai chatbot. In diversi casi, i contenuti risultavano parzialmente errati, decontestualizzati o addirittura plagiati. Roy documenta inoltre esempi di gravi falsità, come dichiarazioni mai riportate dai media o dibattiti pubblici inesistenti attribuiti arbitrariamente a eventi locali.
Il quadro si inserisce in una tendenza più ampia. Le soluzioni di “AI news summary”, come le panoramiche automatiche di Google, sono già state criticate per allucinazioni informative e per l’impatto negativo sul traffico verso gli editori, come segnalato da diversi media internazionali. L’esperimento canadese conferma che, allo stato attuale, i chatbot non sono strumenti affidabili per l’informazione giornalistica, ma amplificatori di rumore e ambiguità.
Approfondimento – Cronologia e contesto
- 2023-2024: prime critiche accademiche sulle “hallucinations” dei LLM nel news reporting (Columbia Journalism Review).
- Maggio 2024: polemiche sulle AI Overviews di Google per errori fattuali nelle notizie.
- Gennaio 2026: pubblicazione dell’esperimento di Jean-Hugues Roy su The Conversation.
Fonti: - The Conversation: https://theconversation.com
- Columbia Journalism Review: https://www.cjr.org
- Reuters – AI e media: https://www.reuters.com
Consigli di approfondimento
- Reuters Institute – Journalism, Media, and Technology Trends
https://www.digitalnewsreport.org - UNESCO – AI e integrità dell’informazione
https://www.unesco.org/en/artificial-intelligence
Abstract – Pro, rischi e implicazioni future
I chatbot AI offrono velocità e accessibilità, ma presentano rischi elevati: fonti non verificabili, errori sistemici e potenziale manipolazione cognitiva. A livello etico e sociale, l’uso indiscriminato può erodere la fiducia nel giornalismo e rafforzare ecosistemi informativi opachi. Senza regole chiare, trasparenza sulle fonti e supervisione umana, l’interazione tra AI e informazione rischia di produrre una regressione culturale più che un progresso.







