OpenAI ha presentato Sora, una nuova applicazione basata su intelligenza artificiale generativa che si propone come un “TikTok dei deepfake”. L’app consente di creare video sintetici realistici da zero, senza caricare clip esistenti, e introduce funzioni di scansione facciale e vocale per generare contenuti personalizzati. La novità solleva entusiasmi tecnologici, ma anche preoccupazioni etiche, legali e sociali.
L’applicazione si fonda sul modello Sora 2, in grado di produrre simultaneamente immagini e audio, con progressi nella fisica simulata e nella sincronizzazione labiale. Gli utenti possono autorizzare l’uso del proprio volto e della propria voce, mantenendo il diritto di revocare il consenso e ricevendo notifiche se altri “remixano” la loro immagine. Sono previste restrizioni sull’uso dei volti di personaggi pubblici e filtri per contenuti violenti o pornografici.
Secondo OpenAI, Sora punta a diventare il “ChatGPT per i video”, ridefinendo i feed social e l’intrattenimento. Tuttavia, gli esperti avvertono: la democratizzazione dei deepfake rischia di amplificare fenomeni di disinformazione, manipolazione politica, frodi e impersonificazione. Già oggi campagne truffaldine basate su video sintetici generano miliardi di dollari di perdite globali.
Sul piano normativo, l’Unione Europea sta finalizzando l’AI Act, che introduce obblighi di etichettatura e responsabilità per i contenuti generati artificialmente. Negli Stati Uniti, invece, prevalgono accordi volontari e raccomandazioni sull’uso di watermark digitali. Parallelamente, ricerche come ShortCheck (arXiv, 2025) stanno sviluppando strumenti per il fact-checking automatizzato di video sospetti.
La sfida, dunque, non è solo tecnologica, ma anche sociale: distinguere ciò che è reale da ciò che non lo è diventa sempre più complesso.
Approfondimento cronologico
- 2018 – I primi deepfake virali sollevano allarmi globali.
- 2020-2023 – Cresce l’uso dei video sintetici in campagne di disinformazione e truffe.
- 2024 – L’UE approva in prima lettura l’AI Act con regole sui contenuti sintetici (Parlamento UE ).
- 2025 – OpenAI lancia Sora, integrando sistemi di protezione e watermarking.
Consigli di approfondimento
- AI Act – Commissione Europea
- Washington Post: i rischi dei deepfake
- arXiv – ShortCheck per rilevamento deepfake
Abstract
Pro: democratizzazione della creatività audiovisiva, nuove forme di intrattenimento, maggiore accessibilità ai contenuti digitali.
Contro: rischio di frodi, manipolazioni politiche, violazioni della privacy e indebolimento della fiducia pubblica nelle informazioni.
Conseguenze future: i deepfake potrebbero diventare parte integrante della comunicazione quotidiana, rendendo indispensabile un ecosistema normativo e tecnologico per la trasparenza e la tracciabilità.







