Decine di applicazioni basate sull’intelligenza artificiale capaci di creare immagini sessualizzate non consensuali continuano a essere disponibili sugli store di Google e Apple. Un nuovo rapporto del Tech Transparency Project rivela dimensioni industriali del fenomeno, mentre crescono le indagini e le pressioni regolatorie in Europa e Regno Unito.
Secondo un rapporto pubblicato il 28 gennaio 2026 dal Tech Transparency Project (TTP), sugli store digitali di Google e Apple sono presenti almeno 103 app di “nudificazione” basate su AI: 55 sul Google Play Store e 48 sull’App Store di Apple. Queste applicazioni consentono di “rimuovere digitalmente i vestiti” dalle immagini, producendo nudi o semi-nudi realistici senza il consenso delle persone raffigurate, prevalentemente donne.
Il dato più rilevante riguarda la scala del fenomeno: oltre 705 milioni di download globali e 117 milioni di dollari di ricavi stimati, secondo l’analisi TTP. Numeri che evidenziano come il problema non sia marginale ma strutturale all’ecosistema delle app AI.
Dopo la pubblicazione del rapporto, Google ha sospeso diverse applicazioni, mentre Apple ha rimosso 28 app, due delle quali successivamente ripristinate (CNBC). Tuttavia, interventi simili erano già stati adottati nel 2024, dopo un’inchiesta di 404 Media, senza riuscire a contenere il fenomeno nel lungo periodo.
Il rapporto TTP arriva in un contesto di crescente attenzione su Grok, il generatore di immagini di xAI integrato in X, accusato di aver prodotto milioni di immagini sessualizzate non consensuali, incluse quelle di minori. Grok e X sono attualmente oggetto di indagini nell’Unione Europea e nel Regno Unito, oltre a una causa legale intentata da almeno una vittima.
Come osservato da The Verge, Apple e Google hanno mostrato un approccio selettivo nell’enforcement delle policy, intervenendo rapidamente su alcune app ma lasciando operative piattaforme capaci di generare contenuti degradanti e potenzialmente illegali.
Il caso riapre il dibattito sulla responsabilità degli app store, sulla moderazione preventiva dei modelli generativi e sulla necessità di strumenti normativi più stringenti per contrastare l’abuso dell’intelligenza artificiale.
Approfondimento – Cronologia essenziale
- 2024 – Inchiesta di 404 Media sulle app di nudificazione AI → prime rimozioni parziali
https://www.404media.co - Gennaio 2026 – Rapporto Tech Transparency Project su 103 app AI di nudificazione
https://www.techtransparencyproject.org - Gennaio 2026 – CNBC: sospensioni e rimozioni da Google e Apple
https://www.cnbc.com - 2025–2026 – Indagini UE e UK su Grok/xAI
https://digital-strategy.ec.europa.eu
Consigli di approfondimento
- The Verge – Analisi su responsabilità delle piattaforme
https://www.theverge.com - Commissione Europea – AI Act e contenuti sintetici
https://digital-strategy.ec.europa.eu
Abstract – Pro, rischi ed effetti sociali
Le tecnologie di generazione visiva basate su AI offrono potenzialità creative e commerciali, ma l’assenza di controlli efficaci favorisce abusi sistemici. I rischi etici includono violazioni della dignità, ricatti, danni reputazionali e violenza digitale di genere. Sul piano sociale, la normalizzazione di questi strumenti può erodere la fiducia nelle immagini e amplificare disuguaglianze e molestie online. Senza un’applicazione rigorosa delle norme e responsabilità chiare per piattaforme e sviluppatori, le conseguenze potrebbero diventare strutturali.







