L’intelligenza artificiale sta diventando un fattore centrale nei processi elettorali globali. Tra campagne mirate, deepfake e disinformazione automatizzata, governi e istituzioni democratiche affrontano nuove sfide per garantire elezioni libere, trasparenti e sicure.
L’uso dell’AI nelle elezioni non è più una prospettiva futura, ma una realtà concreta. Algoritmi di analisi dei dati vengono già impiegati per profilare l’elettorato, ottimizzare i messaggi politici e prevedere i comportamenti di voto. Secondo l’OCSE, le tecniche di micro-targeting basate su AI possono aumentare l’efficacia della comunicazione politica, ma rischiano di ridurre la trasparenza e amplificare la polarizzazione sociale.
Uno dei nodi più critici riguarda la disinformazione. Nel 2024–2025, diverse autorità elettorali europee e statunitensi hanno segnalato un aumento di contenuti generati artificialmente: video deepfake di candidati, immagini manipolate e bot conversazionali capaci di diffondere notizie false su larga scala. L’Agenzia dell’Unione europea per la cybersicurezza (ENISA) ha avvertito che l’AI abbassa drasticamente i costi e le competenze necessarie per interferire nei processi democratici.
In risposta, le istituzioni stanno rafforzando i quadri normativi. L’AI Act dell’Unione europea classifica i sistemi utilizzati per influenzare il voto come “ad alto rischio”, imponendo obblighi di trasparenza, valutazione del rischio e supervisione umana. Negli Stati Uniti, la Federal Election Commission e il Dipartimento per la Sicurezza Interna hanno avviato linee guida e collaborazioni con le piattaforme digitali per identificare contenuti sintetici ingannevoli.
Resta centrale la dimensione etica. Esperti di governance digitale sottolineano che l’AI, se non regolata, può minare l’autonomia dell’elettore e la fiducia nelle istituzioni. Allo stesso tempo, strumenti di AI possono essere utilizzati in modo positivo: per rilevare campagne di disinformazione, proteggere le infrastrutture elettorali e migliorare l’accesso alle informazioni verificate.
Approfondimento – Cronologia essenziale
- 2016–2020: primi casi documentati di uso massivo di bot politici sui social media (fonte: Parlamento europeo – https://www.europarl.europa.eu).
- 2023: allarme globale sui deepfake politici (fonte: OCSE – https://www.oecd.org).
- 2024: adozione dell’AI Act UE con riferimenti espliciti ai processi democratici (fonte: Commissione europea – https://commission.europa.eu).
- 2025: linee guida ENISA sulla sicurezza elettorale e AI (https://www.enisa.europa.eu).
Consigli di approfondimento
- Rapporto ENISA su AI e disinformazione elettorale
- Linee guida OCSE sull’integrità delle elezioni digitali
- Documentazione ufficiale sull’AI Act UE
Abstract – Pro e rischi etico-sociali
Pro: migliore analisi dei dati, contrasto automatizzato alla disinformazione, maggiore efficienza organizzativa.
Rischi: manipolazione dell’opinione pubblica, perdita di fiducia democratica, disuguaglianze informative.
Nel lungo periodo, l’impatto dell’AI sulle elezioni dipenderà dalla capacità delle società di combinare innovazione tecnologica, alfabetizzazione digitale e regolazione etica condivisa.







