Microsoft ha apportato modifiche ai suoi limiti di intelligenza artificiale dopo che un ingegnere AI dello staff ha scritto alla Federal Trade Commission esprimendo le sue preoccupazioni riguardo all’IA di generazione di immagini di Copilot. Suggerimenti come “pro choice”, “pro choce” [sic] e “four twenty”, menzionati in un’indagine di CNBC mercoledì, sono ora bloccati, così come il termine “pro life”. Vi è anche un avviso riguardo a violazioni multiple della politica che possono portare alla sospensione dall’uso dello strumento, cosa che CNBC non aveva riscontrato prima di venerdì, nonostante molti test eseguiti.
Copilot ora blocca anche le richieste di generare immagini di adolescenti o bambini che giocano a assassini con fucili d’assalto, affermando: “Mi dispiace ma non posso generare tale immagine. È contrario ai miei principi etici e alle politiche di Microsoft. Vi prego di non chiedermi di fare nulla che possa danneggiare o offendere gli altri. Grazie per la vostra collaborazione.”
Shane Jones, il responsabile dell’ingegneria AI presso Microsoft che ha sollevato inizialmente le preoccupazioni sull’IA, ha trascorso mesi testando Copilot Designer, il generatore di immagini AI che Microsoft ha presentato nel marzo 2023, alimentato dalla tecnologia di OpenAI. Come con il DALL-E di OpenAI, gli utenti inseriscono prompt di testo per creare immagini. La creatività è incoraggiata a lasciarsi andare. Ma da quando Jones ha iniziato attivamente a testare il prodotto per vulnerabilità a dicembre, una pratica nota come red-teaming, ha visto lo strumento generare immagini che violavano pesantemente i principi di responsabilità AI spesso citati da Microsoft.
Il servizio AI ha rappresentato demoni e mostri insieme a termini legati ai diritti sull’aborto, adolescenti con fucili d’assalto, immagini sessualizzate di donne in scene violente, e consumo di alcol e droghe da parte di minorenni. Tutte queste scene, generate negli ultimi tre mesi, sono state ricreate da CNBC questa settimana utilizzando lo strumento Copilot, originariamente chiamato Bing Image Creator.
Sebbene alcuni prompt specifici siano stati bloccati, molte delle altre potenziali problematiche segnalate da CNBC rimangono. Il termine “incidente automobilistico” restituisce ancora pozze di sangue, corpi con facce mutate e donne sulle scene violente con telecamere o bevande, a volte indossando un corsetto o una cintura snellente. Il sistema continua anche a violare facilmente i diritti d’autore, come creare immagini di personaggi Disney, tra cui Elsa di “Frozen”, che tiene la bandiera palestinese di fronte a edifici distrutti presumibilmente nella Striscia di Gaza, o indossando l’uniforme militare delle Forze di Difesa Israeliane e tenendo in mano un mitra.
Jones era così allarmato dalla sua esperienza che ha iniziato a segnalare internamente le sue scoperte a dicembre. Sebbene l’azienda abbia riconosciuto le sue preoccupazioni, non era disposta a ritirare il prodotto dal mercato. Jones ha detto che Microsoft lo ha indirizzato a OpenAI e, quando non ha ricevuto risposta dall’azienda, ha pubblicato una lettera aperta su LinkedIn chiedendo al consiglio dell’azienda di sospendere DALL-E 3, l’ultima versione del modello AI, per un’indagine.
Il dipartimento legale di Microsoft ha chiesto a Jones di rimuovere immediatamente il suo post, ha detto lui, e lui ha obbedito. A gennaio ha scritto una lettera ai senatori degli Stati Uniti sulla questione e successivamente ha incontrato i membri dello staff del Comitato per il Commercio, la Scienza e i Trasporti del Senato.
Mercoledì, Jones ha ulteriormente aumentato le sue preoccupazioni, inviando una lettera alla presidente della FTC Lina Khan e un’altra al consiglio di amministrazione di Microsoft. Ha condiviso le lettere con CNBC in anticipo.
La FTC ha confermato a CNBC di aver ricevuto la lettera ma ha rifiutato di commentare ulteriormente.”
_______
Microsoft begins blocking some terms that caused its AI tool to create violent, sexual images