Microsoft fired their AI safety team?https://t.co/bp5vde1clm
— Elon Musk (@elonmusk) March 16, 2023
Microsoft ha eliminato un intero team di etica e società responsabile di garantire che i prodotti AI di Microsoft fossero accompagnati da misure di salvaguardia per mitigare i danni sociali. Secondo quanto riferito, il team era una parte fondamentale della strategia di Microsoft per ridurre i rischi associati all’utilizzo della tecnologia OpenAI nei prodotti Microsoft. Prima di essere eliminato, il team aveva sviluppato un intero “toolkit per l’innovazione responsabile” per aiutare gli ingegneri Microsoft a prevedere quali danni potrebbero essere causati dall’IA e quindi a ridurli.
Secondo quanto riferito, gli ex dipendenti di Microsoft hanno affermato che la decisione di eliminare il team di etica e società era “dannosa” e hanno chiesto l’intervento delle autorità di regolamentazione. Mentre Microsoft ha detto che rimane “impegnata a sviluppare prodotti ed esperienze di intelligenza artificiale in modo sicuro e responsabile, e lo fa investendo in persone, processi e partnership che danno priorità a questo”, gli esperti del settore hanno definito la decisione della società “miope” e “preoccupante”.
Emily Bender, un’esperta di linguistica computazionale e questioni etiche nell’elaborazione del linguaggio naturale dell’Università di Washington, ha denunciato la decisione di Microsoft di sciogliere il team di etica e società, affermando che “dato quanto sia difficile e importante questo lavoro, qualsiasi taglio significativo alle persone che svolgono il lavoro è dannoso”. Bender si è unita ad altri critici su Twitter, che hanno chiesto alle autorità di regolamentazione di intervenire.
La decisione di Microsoft di eliminare il team di etica e società arriva poco prima del rilascio del modello di intelligenza artificiale più potente di OpenAI, GPT-4, che sta già aiutando a potenziare la ricerca di Bing. Il taglio del team di etica e società potrebbe sollevare ulteriori preoccupazioni sull’uso responsabile dell’IA e sulla necessità di regolamentazione.
Breve storia del team di etica e società Microsoft ha iniziato a concentrarsi sui team dedicati all’esplorazione dell’IA responsabile nel 2017, con il team di etica e società che raggiungeva una dimensione massima di 30 membri entro il 2020. Tuttavia, lo scorso ottobre, Microsoft ha iniziato a spostare la maggior parte dei membri del team di etica e società in specifici team di prodotto. Ciò ha lasciato solo sette persone dedicate all’attuazione dei “piani ambiziosi” del team di etica e società, hanno detto i dipendenti a Platformer.
Le critiche all’azienda di Redmond non si sono fatte attendere. In particolare, Emily Bender, un’esperta di linguistica computazionale e questioni etiche nell’elaborazione del linguaggio naturale dell’Università di Washington, si è unita ad altri critici twittando per denunciare la decisione di Microsoft di sciogliere il team di etica e società. Bender ha detto ad Ars che, in quanto estranea, pensa che la decisione di Microsoft sia stata “miope”. Ha aggiunto: “Dato quanto sia difficile e importante questo lavoro, qualsiasi taglio significativo alle persone che svolgono il lavoro è dannoso”.
La preoccupazione principale è che la mancanza di un team dedicato all’etica dell’IA possa portare a prodotti Microsoft meno sicuri e meno responsabili. Ciò potrebbe portare a conseguenze negative per gli utenti finali e la società nel suo insieme. Anche se Microsoft ha un ufficio dedicato all’IA responsabile e altri gruppi di lavoro che si occupano di questo tema, la mancanza di un team dedicato potrebbe rappresentare una grande perdita di competenze e conoscenze specifiche.
L’eliminazione del team di etica e società di Microsoft solleva anche domande più ampie sul ruolo delle autorità di regolamentazione nell’industria dell’IA. Fino ad ora, l’industria dell’IA si è basata principalmente sull’autoregolamentazione e sulle iniziative volontarie delle aziende. Tuttavia, con il continuo rapido sviluppo dell’IA, diventa sempre più importante un’adeguata regolamentazione per garantire la sicurezza e la responsabilità dell’IA.
In un’intervista con CNBC, Michael Veale, professore assistente di diritto digitale presso la University College di Londra, ha detto che l’eliminazione del team di etica e società di Microsoft “dimostra l’importanza di una regolamentazione dell’IA che non si basa solo sulla fiducia e sulla promessa delle aziende di fare la cosa giusta”.
In effetti, molte voci stanno chiedendo una maggiore regolamentazione dell’IA. Alcuni esperti suggeriscono che sia necessaria una sorta di “FDA per l’IA”, simile all’Agenzia statunitense per il controllo dei prodotti alimentari e farmaceutici, per garantire che l’IA sia sicura e responsabile.
La decisione di Microsoft di eliminare il team di etica e società solleva preoccupazioni significative per la sicurezza e la responsabilità dell’IA. Mentre l’industria dell’IA continua a crescere e svilupparsi, diventa sempre più importante una maggiore regolamentazione per garantire che l’IA sia utilizzata in modo sicuro e responsabile.
_________
“Report: Microsoft cut a key AI ethics team“