La “guerra dei deepfake” entra in una fase critica: immagini e video sintetici, sempre più credibili, stanno erodendo la fiducia pubblica. Al centro del dibattito c’è C2PA (Content Credentials), lo standard di metadati promosso da una coalizione guidata da Adobe e sostenuta da grandi piattaforme e aziende tech. Ma l’adozione parziale, la fragilità dei flussi di condivisione e l’ambiguità su cosa sia davvero “AI” stanno rendendo l’etichettatura insufficiente.
Secondo l’analisi discussa nel podcast Decoder di The Verge, C2PA nasce come standard di “provenienza” (origine e modifiche di un file), non come sistema di rilevazione universale dei falsi. Il problema principale emerge nella distribuzione: i metadati possono essere rimossi durante upload, compressioni o ricondivisioni, e non tutte le piattaforme li leggono o li mostrano in modo coerente.
In parallelo, watermarking e verifica “proprietaria” (come SynthID di Google) aiutano a identificare contenuti generati da specifici strumenti, ma non risolvono l’ecosistema frammentato né coprono i generatori “ombra” usati per campagne di disinformazione.
Il cambio culturale è già visibile: a fine 2025 il capo di Instagram Adam Mosseri ha scritto che la società passerà dall’assumere che ciò che vede sia reale a partire dalla “diffidenza” come default. È un segnale di resa parziale: non basta etichettare il falso, serve ricostruire contesto e fiducia attorno alle fonti.
Sul fronte normativo, l’UE punta su obblighi di trasparenza per i deepfake (AI Act, Art. 50) e su un codice di pratica per uniformare marcature e icone: un tentativo di evitare etichette incoerenti e inefficaci.
Approfondimento: cronologia essenziale (con fonti)
- Standard C2PA e specifiche tecniche: sviluppo dello standard aperto per provenienza e autenticità dei contenuti.
- Fine 2025: Mosseri (Instagram) esplicita la “sfiducia di default” verso foto e video.
- 2025–2026: Google amplia strumenti di watermarking/verifica SynthID (detector e funzioni in Gemini).
- 2026: UE accelera su trasparenza e labeling (AI Act Art. 50 + Code of Practice).
Consigli di approfondimento (fonti autorevoli)
- Specifica tecnica C2PA / Content Credentials:
- Content Authenticity Initiative (ecosistema e adozione):
- Trasparenza deepfake nell’AI Act (Art. 50):
- Code of Practice UE su marking/labelling:
Abstract: pro, rischi e conseguenze
Pro: C2PA e watermarking possono aumentare tracciabilità e responsabilità nei contenuti “di filiera” (media, archivi, creator professionali). Rischi: falsa sicurezza (metadati rimovibili), frammentazione tra standard, penalizzazione reputazionale dei creator etichettati “AI”, e vantaggio per attori malevoli che restano fuori dai circuiti ufficiali. Conseguenze future: normalizzazione dello scetticismo di massa, pressione verso verifiche di fonte/identità e più intervento regolatorio; possibile polarizzazione sociale se le etichette diventano arma politica invece che strumento di trasparenza.







