Negli ultimi anni, la diffusione non consensuale di immagini intime è diventata una delle principali preoccupazioni nel campo della sicurezza digitale, con un impatto devastante sulle vittime. Dal 2015, Microsoft ha adottato misure per contrastare questa problematica, che si è aggravata con l’avvento della tecnologia deepfake e dell’intelligenza artificiale generativa, capaci di creare immagini e video estremamente realistici. Queste tecnologie, se da un lato rappresentano progressi tecnologici straordinari, dall’altro sono diventate uno strumento nelle mani di malintenzionati per perpetrare abusi, principalmente a danno di donne e ragazze.
Nel luglio 2024, Microsoft ha pubblicato un whitepaper per fornire indicazioni ai legislatori su come affrontare il problema delle immagini deepfake, con particolare attenzione alla protezione delle donne e dei minori. Una delle principali azioni intraprese dall’azienda è la partnership con StopNCII, una piattaforma che permette alle vittime di creare “impronte digitali” delle proprie immagini senza che queste vengano mai caricate online. Tali impronte vengono poi utilizzate per identificare e rimuovere le immagini non consensuali dai risultati di ricerca di Bing e da altre piattaforme.
Microsoft ha già agito su quasi 270.000 immagini fino ad agosto 2024 e continua a perfezionare il proprio approccio per proteggere le vittime. Questo include un sistema di segnalazione centralizzato per rimuovere contenuti dannosi dalle sue piattaforme, in particolare nel contesto della crescente diffusione di contenuti generati dall’intelligenza artificiale. Con un impegno costante e la collaborazione con organizzazioni come StopNCII, Microsoft mira a prevenire la diffusione di queste immagini e a garantire un ambiente digitale più sicuro.