L’attore di Breaking Bad e il sindacato SAG-AFTRA hanno annunciato che OpenAI sta prendendo sul serio le preoccupazioni sull’uso non autorizzato delle immagini degli artisti nella piattaforma video Sora 2.
La vicenda è esplosa dopo che alcuni video generati da Sora hanno mostrato Bryan Cranston in situazioni mai autorizzate, incluso un improbabile selfie con Michael Jackson. L’attore, insieme al sindacato SAG-AFTRA, a OpenAI e a tre delle principali agenzie di talenti di Hollywood (United Talent Agency, Association of Talent Agents e Creative Artists Agency), ha firmato una dichiarazione congiunta in cui l’azienda esprime “rammarico per queste generazioni involontarie” e assicura un rafforzamento delle misure di sicurezza.
OpenAI ha ribadito il proprio impegno a garantire un modello “opt-in” per l’utilizzo di immagine e voce degli artisti, specificando che ogni performer manterrà “il diritto di decidere come e se può essere simulato”. L’azienda ha inoltre promesso tempi rapidi nella gestione delle segnalazioni di violazioni.
Bryan Cranston si è detto “grato a OpenAI” per aver corretto la propria politica, mentre il presidente della SAG-AFTRA, Sean Astin, ha sottolineato la necessità di una cornice legislativa chiara. Astin ha richiamato l’attenzione sul NO FAKES Act (Nurture Originals, Foster Art and Keep Entertainment Safe), una proposta di legge statunitense che punta a tutelare attori e creativi da un uso improprio della tecnologia di replicazione digitale.
Il dibattito riflette un nodo cruciale dell’era AI: l’equilibrio tra innovazione tecnologica e protezione dei diritti individuali. Dopo la polemica per i video “SpongeBob nazista”, OpenAI aveva già abbandonato la precedente politica di opt-out, promettendo maggiore controllo per i titolari dei diritti.
📌 Cronologia e contesto
- 2023-2024 – Crescono le denunce di deepfake non autorizzati nel cinema e nella musica.
- 2024 – SAG-AFTRA avvia la campagna per una legge federale di tutela.
- Settembre 2025 – Lancio di Sora 2 con polemiche legate a contenuti generati senza consenso.
- Ottobre 2025 – Dichiarazione congiunta di Bryan Cranston, OpenAI e SAG-AFTRA.
Fonti:
- SAG-AFTRA – NO FAKES Act
- U.S. Copyright Office
- FTC – Artificial Intelligence Guidance
🔎 Approfondimenti consigliati
- UNESCO – AI and Ethics
- World Economic Forum – Deepfake Risks
- Brookings Institution – Regulating AI-generated Content
📌 Abstract
Il caso Bryan Cranston evidenzia i progressi di OpenAI nella protezione dei diritti d’immagine, ma anche i rischi di un’appropriazione indebita facilitata dai deepfake. Pro: maggiore controllo per artisti e agenzie, passi avanti verso modelli di consenso chiari. Rischi: senza una legge federale, l’uso improprio delle identità digitali potrebbe continuare su larga scala, con conseguenze etiche e sociali profonde, dal furto d’immagine all’erosione della fiducia nel contenuto digitale.







