Un progetto di traduzione automatica basato sull’intelligenza artificiale ha acceso un nuovo dibattito sull’affidabilità dei contenuti online. Alcuni articoli di Wikipedia tradotti tramite sistemi AI avrebbero introdotto fonti inesistenti o errate, costringendo gli editor dell’enciclopedia collaborativa a intervenire con restrizioni verso i contributori coinvolti.
Traduzioni AI e fonti “allucinate” su Wikipedia
L’uso dell’intelligenza artificiale per tradurre articoli di Wikipedia è finito sotto scrutinio dopo che diversi editor hanno individuato citazioni inventate o non pertinenti all’interno di alcune voci. Secondo quanto riportato dal sito di giornalismo tecnologico 404 Media, il problema sarebbe emerso in articoli tradotti da collaboratori legati alla Open Knowledge Association (OKA), un’organizzazione che promuove l’accesso aperto alla conoscenza.
Gli editor della piattaforma hanno segnalato che le traduzioni automatiche non si limitavano a rendere il testo in un’altra lingua, ma modificavano o generavano riferimenti bibliografici inesistenti, un fenomeno noto nel campo dell’intelligenza artificiale come “hallucination”.
Nel caso specifico, i sistemi AI avrebbero:
- aggiunto fonti inesistenti;
- sostituito riferimenti originali con citazioni non pertinenti;
- creato bibliografie completamente inventate.
Wikipedia si basa su un principio fondamentale: verificabilità tramite fonti affidabili. L’introduzione di citazioni false rischia quindi di compromettere la credibilità dell’intero sistema.
Le restrizioni degli editor di Wikipedia
Di fronte all’aumento degli errori, la comunità editoriale di Wikipedia ha adottato misure più severe.
Gli amministratori hanno iniziato a limitare o bloccare temporaneamente i contributori che utilizzavano traduzioni automatiche con un tasso elevato di errori, soprattutto quando le modifiche includevano riferimenti non verificabili.
La piattaforma consente da tempo l’uso di strumenti di traduzione automatica, ma richiede che ogni contributo venga controllato manualmente prima della pubblicazione. Il caso OKA ha riacceso la discussione su quanto sia affidabile delegare all’intelligenza artificiale la produzione di contenuti enciclopedici.
Cronologia e contesto
- 2001 – Nasce Wikipedia, enciclopedia collaborativa basata su fonti verificabili.
- 2019-2023 – Cresce l’uso di strumenti di traduzione automatica per espandere le voci tra lingue diverse.
- 2023-2025 – I modelli linguistici generativi mostrano capacità avanzate ma anche problemi di hallucination documentati da vari studi accademici.
- 2026 – Segnalazioni degli editor su traduzioni AI con fonti inventate portano a restrizioni verso i traduttori coinvolti.
Fonti
- 404 Media – report sul caso delle traduzioni AI su Wikipedia
- Wikimedia Foundation – policy sulla verificabilità delle fonti
https://www.mediawiki.org/wiki/Verifiability
Consigli di approfondimento
- Wikimedia Foundation – Policies and Guidelines
https://meta.wikimedia.org/wiki/Policies_and_guidelines - Nature (2023) – studi sulle “hallucinations” nei modelli linguistici
https://www.nature.com/articles/d41586-023-02361-7 - Stanford HAI – ricerca sui limiti dei Large Language Models
https://hai.stanford.edu
Abstract: opportunità e rischi sociali
L’uso dell’intelligenza artificiale nella traduzione dei contenuti enciclopedici può accelerare la diffusione della conoscenza globale, permettendo di rendere disponibili articoli in molte più lingue. Tuttavia, l’emergere di fonti inventate o alterate evidenzia un rischio strutturale: l’IA può produrre testi plausibili ma non verificabili.
Dal punto di vista etico e sociale, il problema riguarda la fiducia nelle infrastrutture informative digitali. Se strumenti automatizzati inseriscono riferimenti falsi in ambienti collaborativi come Wikipedia, il rischio è una diffusione sistemica di informazioni errate.
Nel futuro, gli esperti prevedono che l’uso dell’IA nella produzione di conoscenza richiederà meccanismi di verifica più rigorosi, auditing algoritmico e supervisione umana, per evitare che l’automazione comprometta l’affidabilità delle fonti pubbliche.







