Dalla consultazione pubblica della Commissione europea alla proposta danese sui diritti di immagine, fino alle scelte di Meta: come l’Europa cerca di ridefinire i principi democratici nell’era algoritmica
Introduzione
L’intelligenza artificiale (IA) non è più soltanto un ambito tecnico o industriale: è diventata una questione democratica. In Europa, il dibattito non riguarda solo l’innovazione tecnologica, ma la capacità delle istituzioni di proteggere i valori fondamentali: trasparenza, responsabilità, libertà di espressione e partecipazione politica.
La posta in gioco è alta. Secondo diversi studiosi, l’IA ha già trasformato il modo in cui i cittadini si informano, si organizzano e interagiscono con le istituzioni【1】. Algoritmi di raccomandazione, modelli generativi e sistemi di sorveglianza rischiano di ridisegnare i confini tra potere politico e potere tecnologico.
L’Unione Europea (UE) si trova di fronte a un dilemma: come governare l’IA senza soffocare l’innovazione, e soprattutto come evitare che la democrazia venga subordinata alla logica delle piattaforme globali. Per questo, dal 2020 con la proposta dell’AI Act e nel 2025 con la nuova consultazione pubblica sul rapporto tra IA e processi democratici, Bruxelles ha scelto una strada pionieristica: coinvolgere cittadini e società civile nella definizione delle regole.
In parallelo, singoli Stati membri sperimentano soluzioni originali. È il caso della Danimarca, che nel 2025 ha proposto una legge innovativa sui diritti di immagine nell’era dell’IA, mirando a restituire ai cittadini il controllo sulla propria identità digitale.
Infine, le grandi piattaforme come Meta, Google e Microsoft cercano di bilanciare le pressioni normative con strategie di autoregolamentazione. Il rischio, tuttavia, è che questi colossi diventino arbitri di fatto delle nuove regole democratiche.
La consultazione pubblica della Commissione europea
Nel luglio 2025 la Commissione europea ha lanciato una consultazione pubblica sull’IA e la democrazia, aperta a cittadini, ONG, università e imprese【2】. L’iniziativa, collegata all’attuazione dell’AI Act, ha l’obiettivo di raccogliere pareri sul modo in cui l’IA influisce su:
- processi elettorali;
- libertà di espressione;
- disinformazione e manipolazione;
- rappresentanza politica e fiducia istituzionale.
Secondo il documento di lancio, “la fiducia dei cittadini è condizione essenziale per la legittimità democratica e l’IA deve rafforzarla, non eroderla”【3】.
Il metodo scelto è significativo: non solo esperti e governi, ma anche i cittadini come co-legislatori. È una novità rispetto ad altre regioni del mondo, dove la regolamentazione è spesso guidata da lobby industriali o decisioni top-down.
Le principali criticità emerse riguardano:
- opacità degli algoritmi: i cittadini non sanno come vengono selezionate le informazioni che leggono;
- rischio di manipolazione elettorale attraverso deepfake e micro-targeting politico;
- squilibrio di potere tra Stati e piattaforme globali.
La consultazione si collega a iniziative già avviate, come il Digital Services Act (DSA) e il Media Freedom Act, ma introduce un elemento nuovo: la consapevolezza che la democrazia stessa è in gioco.
Diritti digitali e il caso danese
Mentre Bruxelles discute regole comuni, alcuni Stati membri sperimentano soluzioni più radicali. È il caso della Danimarca, che nell’autunno 2025 ha presentato una proposta di legge per introdurre un diritto all’immagine e alla voce nell’era dell’IA【4】.
La legge prevede che:
- nessuna immagine o voce possa essere utilizzata per addestrare modelli IA senza consenso esplicito;
- i cittadini abbiano il diritto di chiedere la rimozione retroattiva dei propri dati da dataset già esistenti;
- siano introdotte sanzioni per le aziende che sfruttano contenuti senza autorizzazione.
L’iniziativa nasce dal crescente fenomeno dei deepfake, che in Danimarca hanno colpito figure pubbliche e private. Ma la portata è più ampia: si tratta di un nuovo modello di cittadinanza digitale, che attribuisce all’individuo un controllo diretto sulla propria identità algoritmica.
Secondo alcuni giuristi, questa legge potrebbe diventare un precedente per tutta l’UE, analogamente al regolamento GDPR del 2018【5】. Altri temono che un eccesso di vincoli possa rallentare la ricerca e l’innovazione.
In ogni caso, la proposta danese mostra come la democrazia non si giochi più solo nel parlamento o nelle urne, ma anche nei dataset di addestramento.
Le piattaforme globali tra autoregolamentazione e politica europea
La partita della democrazia europea si gioca anche con e contro i grandi attori tecnologici.
- Meta ha introdotto nel 2024 etichette obbligatorie per i contenuti generati da IA su Facebook e Instagram【6】. Tuttavia, ONG e ricercatori denunciano che le misure siano facilmente aggirabili e non coprano l’intero ecosistema digitale.
- Google ha lanciato nel 2025 l’Agent Payments Protocol (AP2) per gestire acquisti tramite agenti IA【7】. Un passo che solleva interrogativi: se un assistente digitale prende decisioni economiche per gli utenti, chi garantisce che tali scelte non abbiano impatti politici o discriminatori?
- Microsoft, con l’integrazione di modelli IA in Visual Studio Code e nella suite Office, influenza quotidianamente milioni di lavoratori europei【8】. Questo pone il problema della dipendenza strutturale da software non europei.
Il nodo centrale resta l’asimmetria di potere: mentre le istituzioni democratiche hanno tempi lunghi e complessi, le piattaforme globali agiscono con rapidità e capacità di investimento enormi. In assenza di regole comuni, il rischio è che siano esse a scrivere le nuove costituzioni digitali.
IA, disinformazione e processi elettorali
Uno dei fronti più delicati è quello delle elezioni. Nel 2024, durante le presidenziali americane, sono circolati deepfake realistici di candidati che rilasciavano dichiarazioni mai pronunciate【9】. In India, invece, si sono diffusi video manipolati di leader politici, amplificati da reti sociali automatizzate【10】.
L’Europa teme scenari analoghi. Per questo, il Parlamento europeo ha raccomandato:
- sistemi di watermarking obbligatori per i contenuti generati da IA;
- campagne di alfabetizzazione digitale per i cittadini;
- un meccanismo di cooperazione elettorale tra Stati membri e piattaforme, per segnalare contenuti manipolati【11】.
Ma resta una domanda di fondo: fino a che punto la democrazia può difendersi senza limitare la libertà di espressione?
Gli studiosi parlano di sfera pubblica algoritmica, dove l’accesso alle informazioni non è più neutrale ma mediato da sistemi di raccomandazione【12】. Questo rende fragile il principio stesso del dibattito democratico.
Il nodo etico e filosofico
Oltre agli aspetti tecnici e normativi, la questione è anche filosofica.
Il filosofo Luciano Floridi sostiene che la governance dell’IA sia un “test esistenziale” per la democrazia: non si tratta solo di regolare una tecnologia, ma di ridefinire il rapporto tra cittadini e istituzioni【13】.
Richiamando Habermas, alcuni studiosi parlano di una trasformazione della sfera pubblica: se in passato era lo spazio della discussione razionale, oggi rischia di essere frammentata in bolle algoritmiche【14】.
Da qui nasce il concetto di cittadinanza aumentata, che non riguarda solo il diritto di voto, ma anche la capacità di controllare i flussi informativi e i propri dati personali. In questo senso, l’IA diventa una questione di dignità oltre che di governance.
Sfide geopolitiche: UE, USA e Cina
Il dibattito europeo non si svolge in un vuoto geopolitico.
- Negli Stati Uniti, la regolamentazione dell’IA è frammentata e spesso subordinata agli interessi delle big tech【15】.
- In Cina, l’approccio è opposto: un forte controllo statale che utilizza l’IA come strumento di governance e sorveglianza【16】.
- L’Europa cerca una terza via: coniugare innovazione e diritti fondamentali.
Tuttavia, il rischio è quello di una frammentazione digitale globale, con tre blocchi normativi distinti. In tale scenario, l’UE dovrà dimostrare se la sua visione può avere un peso geopolitico reale o se resterà confinata a un ruolo regolatorio regionale.
Conclusione: la posta in gioco
La partita dell’IA non è solo tecnologica. È un conflitto di valori: chi decide le regole del gioco nell’era algoritmica?
Se l’Europa riuscirà a trasformare le consultazioni pubbliche, le sperimentazioni nazionali e il dialogo con le piattaforme in un modello coerente, potrà diventare un laboratorio mondiale di democrazia digitale.
Se invece prevarranno frammentazione e lentezza, il rischio è che i cittadini europei vivano in una democrazia formalmente intatta, ma sostanzialmente delegata agli algoritmi delle piattaforme globali.
La scelta dei prossimi cinque anni sarà decisiva. La posta in gioco non è soltanto la competitività economica, ma la sopravvivenza stessa dei principi democratici europei.
Note e riferimenti
- Helbing, D. Digitale Demokratie und künstliche Intelligenz. Berlin: Springer, 2024.
- European Commission. Public Consultation on Democracy and Artificial Intelligence. Bruxelles, 2025.
- Council of Europe. Guidelines on the impact of AI on freedom of expression. Strasburgo, 2024.
- Danish Ministry of Justice. Draft Bill on Image and Voice Rights in AI Systems. Copenaghen, 2025.
- Kuner, C. Data Protection and Democracy in the EU. Cambridge University Press, 2023.
- Meta Platforms. AI Transparency and Content Labelling Policy. Menlo Park, 2024.
- Google. Agent Payments Protocol (AP2) White Paper. Mountain View, 2025.
- Microsoft. Responsible AI in Developer Tools. Redmond, 2025.
- The New York Times. Deepfake Videos Emerge in U.S. Presidential Race. New York, 2024.
- Indian Express. AI Deepfakes and Indian Elections. Delhi, 2024.
- European Parliament. Report on Artificial Intelligence and Democratic Resilience. Bruxelles, 2024.
- Habermas, J. The Structural Transformation of the Public Sphere. Cambridge, 2023 ed.
- Floridi, L. The Democratic Challenges of AI. Oxford University Press, 2025.
- Couldry, N. & Mejias, U. The Costs of Connection. Stanford University Press, 2024.
- U.S. Federal Trade Commission. AI and Consumer Protection Report. Washington, 2024.
- Creemers, R. China’s AI Governance Model. Leiden University, 2023.







