Negli Stati Uniti otto senatori hanno chiesto formalmente a X, Meta, Alphabet, Snap, Reddit e TikTok di dimostrare come intendano fermare la diffusione di deepfake sessualizzati e non consensuali. La lettera segue lo scandalo Grok e apre un nuovo fronte politico e normativo sulla responsabilità delle piattaforme.
Negli USA cresce la pressione politica contro la diffusione di immagini intime non consensuali generate dall’intelligenza artificiale. In una lettera inviata il 15 gennaio 2026, i senatori Lisa Blunt Rochester, Tammy Baldwin, Richard Blumenthal, Kirsten Gillibrand, Mark Kelly, Ben Ray Luján, Brian Schatz e Adam Schiff hanno chiesto chiarimenti a X, Meta, Alphabet, Snap, Reddit e TikTok sulle misure adottate per contrastare i deepfake a sfondo sessuale.
Il documento chiede alle aziende di conservare ogni informazione su creazione, rilevamento, moderazione e monetizzazione di immagini AI esplicite, oltre a fornire definizioni normative, policy interne e sistemi di enforcement. I senatori sottolineano che, nonostante le regole dichiarate, “gli utenti trovano comunque il modo di aggirare le barriere o queste stanno fallendo”.
La lettera arriva poche ore dopo l’annuncio di X sull’aggiornamento di Grok, che limita la generazione di immagini sessualizzate e ne consente l’uso solo ad abbonati paganti. Tuttavia, secondo il New York Times e il Center for Countering Digital Hate, tra fine 2025 e inizio 2026 sarebbero circolate su X tra 1,8 e 3 milioni di immagini sessualizzate, molte non consensuali, incluse migliaia che sembrano ritrarre minori.
Il fenomeno non è nuovo. Nel 2018 Reddit rimosse una pagina virale con video porno sintetici di celebrità. Negli anni successivi TikTok, YouTube e Telegram sono diventati veicolo di bot e app di “svestizione virtuale”. Il Consiglio di vigilanza di Meta ha già censurato casi di immagini esplicite generate da AI raffiguranti personaggi pubblici.
Le aziende, però, restano in gran parte silenziose. Solo Reddit e X hanno risposto ufficialmente, ribadendo il divieto di contenuti intimi non consensuali. Alphabet, Snap, TikTok e Meta non hanno commentato.
Sul piano normativo, il Take It Down Act entrato in vigore nel 2025 criminalizza la pornografia deepfake, ma scarica gran parte della responsabilità sugli utenti. Intanto, la California ha aperto un’indagine su xAI e New York valuta leggi per l’etichettatura obbligatoria dei contenuti sintetici.
Abstract – Pro e rischi etici
Pro: maggiore attenzione politica, possibili standard comuni, tutela delle vittime.
Rischi: censura selettiva, sorveglianza eccessiva, spostamento della responsabilità sugli utenti.
Conseguenze future: pressione verso una governance federale dell’IA e nuovi obblighi di trasparenza per le piattaforme.
Cronologia essenziale (con fonti)
- 2018: Reddit rimuove deepfake porno virali
https://www.bbc.com/news/technology-42984173 - 2020–2024: crescita bot di “nudify” su Telegram
https://www.nytimes.com/2024/02/06/technology/deepfake-porn-telegram.html - 2025: approvazione Take It Down Act
https://www.congress.gov - 2026: indagine California su xAI
https://oag.ca.gov
Approfondimenti consigliati
- Center for Countering Digital Hate: https://www.counterhate.com
- New York Times AI Safety: https://www.nytimes.com/section/technology/artificial-intelligence







