Google estende a Gemini una funzione di verifica che permette di identificare se un video è stato creato o modificato con l’intelligenza artificiale dell’azienda. Il sistema analizza immagini e audio alla ricerca del watermark proprietario SynthID, aprendo nuove prospettive – e nuovi limiti – nella lotta contro deepfake e disinformazione.
L’app Gemini di Google introduce una novità rilevante nel dibattito su contenuti sintetici e trasparenza digitale. Dal dicembre 2025, gli utenti possono caricare un video e chiedere all’assistente se sia stato generato con l’intelligenza artificiale di Google. La risposta non si limita a un sì o no: Gemini segnala i punti precisi in cui compare il watermark SynthID, integrato nei modelli generativi dell’azienda.
La funzionalità rappresenta un’estensione di quanto già lanciato a novembre per le immagini. Il sistema supporta video fino a 100 MB e 90 secondi, è disponibile in tutte le lingue e in tutti i Paesi dove l’app Gemini è attiva. Secondo Google, SynthID è una filigrana “impercettibile”, incorporata direttamente nei contenuti generati o modificati dai suoi modelli.
Tuttavia, il perimetro resta limitato: Gemini può verificare solo i video creati con strumenti di Google. Non è in grado di identificare contenuti generati da altre piattaforme di AI, né di certificare l’autenticità di un video “umano”. Il problema è strutturale: manca ancora uno standard globale e interoperabile per il tagging dei contenuti generativi.
Il contesto è reso più complesso dalla facilità con cui alcune filigrane possono essere rimosse, come dimostrato da precedenti esperimenti nel settore. Google affianca a SynthID anche i metadati C2PA per alcuni modelli, ma l’assenza di un’adozione coordinata sui social media lascia spazio alla circolazione di deepfake non etichettati.
Dal punto di vista etico e della sicurezza, la mossa segnala un cambio di passo: le grandi piattaforme iniziano ad assumersi una responsabilità diretta nella tracciabilità dei contenuti AI, pur senza offrire soluzioni universali.
Approfondimento – Cronologia essenziale
- 2023–2024: crescita esponenziale di deepfake video e audio
https://www.weforum.org - 2024: lancio dello standard C2PA per l’autenticazione dei contenuti
https://c2pa.org - Novembre 2025: Google introduce la verifica AI per le immagini con SynthID
https://blog.google - Dicembre 2025: estensione della verifica ai video nell’app Gemini
https://www.theverge.com
Consigli di approfondimento
- OECD, AI-generated content and trust
https://www.oecd.org - Commissione europea, Linee guida su AI e disinformazione
https://digital-strategy.ec.europa.eu
Abstract – Pro, rischi e impatti futuri
La verifica dei video con Gemini aumenta trasparenza e responsabilità, aiutando utenti e giornalisti a riconoscere contenuti generati dall’AI di Google. I limiti restano evidenti: assenza di interoperabilità, rischio di rimozione delle filigrane e falsa percezione di sicurezza. Senza standard condivisi, il futuro potrebbe accentuare la frammentazione informativa. L’evoluzione sociale dipenderà dalla capacità di trasformare strumenti proprietari in infrastrutture di fiducia comuni.







