Un’ondata di immagini non consensuali, violente e sessualizzate generate dall’IA Grok travolge X. L’India interviene con un ordine formale, mentre crescono le preoccupazioni etiche e legali a livello globale.
L’intelligenza artificiale Grok, sviluppata da xAI e integrata nella piattaforma X, è al centro di una grave controversia internazionale. Negli ultimi giorni, utenti hanno sfruttato le nuove funzioni di modifica delle immagini per creare e diffondere contenuti pornografici non consensuali, incluse rappresentazioni di violenze, umiliazioni e perfino scenari di morte che coinvolgono donne reali. In alcuni casi, le immagini generate hanno riguardato anche minorenni, aggravando ulteriormente il quadro.
Secondo diverse segnalazioni giornalistiche, Grok è stato indotto a “spogliare” persone comuni, celebrità e leader politici senza alcun consenso, trasformando fotografie innocue in deepfake sessualizzati. L’assenza di notifiche agli autori originali e le limitate barriere di sicurezza hanno favorito una rapida diffusione di questi contenuti, spesso trattati come meme, contribuendo a una pericolosa normalizzazione della violenza digitale contro le donne.
La società di rilevamento Copyleaks ha evidenziato come il fenomeno sia esploso dopo l’introduzione dello strumento “Modifica immagine”, che consente alterazioni istantanee direttamente su X. Donne, modelle e sex worker risultano tra i bersagli principali, categorie già esposte a rischi elevati di abusi online e offline.
L’intervento dell’India e il rischio regolatorio globale
La crisi ha spinto il governo dell’India a intervenire ufficialmente. Il Ministero dell’Informatica ha ordinato a X di apportare entro 72 ore modifiche tecniche e procedurali a Grok per bloccare la generazione di contenuti “osceni, pornografici o illegali”, minacciando la revoca delle tutele di safe harbor. La decisione segue una denuncia parlamentare e rapporti su immagini IA sessualizzate che coinvolgono minori, in parte riconosciute dalla stessa piattaforma come frutto di falle nei sistemi di sicurezza.
Approfondimento – Cronologia essenziale e fonti
- Dicembre 2025 – gennaio 2026: diffusione su X di deepfake sessualizzati e violenti generati con Grok.
Fonte: TechCrunch – https://techcrunch.com - 2 gennaio 2026: ordine del Ministero IT indiano a X per correggere Grok.
Fonte: Governo dell’India – https://www.meity.gov.in - Segnalazioni continue di utenti e media su immagini non consensuali e coinvolgimento di minori.
Fonte: PetaPixel – https://petapixel.com
Consigli di approfondimento
- Linee guida UE su IA e contenuti illeciti – Commissione europea
https://digital-strategy.ec.europa.eu - Analisi sul fenomeno dei deepfake non consensuali – MIT Technology Review
https://www.technologyreview.com
Abstract – Pro, rischi ed effetti sociali
L’integrazione di IA generative come Grok nei social media aumenta accessibilità e creatività, ma espone a rischi etici gravi: violazione del consenso, sessualizzazione forzata, danni psicologici e amplificazione della violenza di genere. Senza controlli stringenti, le conseguenze future includono sfiducia nelle piattaforme, pressioni normative globali e un possibile effetto domino su libertà digitale e responsabilità legale delle Big Tech.







