L’eliminazione del team di etica e società di Microsoft solleva preoccupazioni sull’etica dell’AI

Microsoft ha eliminato un intero team di etica e società responsabile di garantire che i prodotti AI di Microsoft fossero accompagnati da misure di salvaguardia per mitigare i danni sociali. Secondo quanto riferito, il team era una parte fondamentale della strategia di Microsoft per ridurre i rischi associati all’utilizzo della tecnologia OpenAI nei prodotti Microsoft. Prima di essere eliminato, il team aveva sviluppato un intero “toolkit per l’innovazione responsabile” per aiutare gli ingegneri Microsoft a prevedere quali danni potrebbero essere causati dall’IA e quindi a ridurli.

Secondo quanto riferito, gli ex dipendenti di Microsoft hanno affermato che la decisione di eliminare il team di etica e società era “dannosa” e hanno chiesto l’intervento delle autorità di regolamentazione. Mentre Microsoft ha detto che rimane “impegnata a sviluppare prodotti ed esperienze di intelligenza artificiale in modo sicuro e responsabile, e lo fa investendo in persone, processi e partnership che danno priorità a questo”, gli esperti del settore hanno definito la decisione della società “miope” e “preoccupante”.

Emily Bender, un’esperta di linguistica computazionale e questioni etiche nell’elaborazione del linguaggio naturale dell’Università di Washington, ha denunciato la decisione di Microsoft di sciogliere il team di etica e società, affermando che “dato quanto sia difficile e importante questo lavoro, qualsiasi taglio significativo alle persone che svolgono il lavoro è dannoso”. Bender si è unita ad altri critici su Twitter, che hanno chiesto alle autorità di regolamentazione di intervenire.

La decisione di Microsoft di eliminare il team di etica e società arriva poco prima del rilascio del modello di intelligenza artificiale più potente di OpenAI, GPT-4, che sta già aiutando a potenziare la ricerca di Bing. Il taglio del team di etica e società potrebbe sollevare ulteriori preoccupazioni sull’uso responsabile dell’IA e sulla necessità di regolamentazione.

Breve storia del team di etica e società Microsoft ha iniziato a concentrarsi sui team dedicati all’esplorazione dell’IA responsabile nel 2017, con il team di etica e società che raggiungeva una dimensione massima di 30 membri entro il 2020. Tuttavia, lo scorso ottobre, Microsoft ha iniziato a spostare la maggior parte dei membri del team di etica e società in specifici team di prodotto. Ciò ha lasciato solo sette persone dedicate all’attuazione dei “piani ambiziosi” del team di etica e società, hanno detto i dipendenti a Platformer.

Le critiche all’azienda di Redmond non si sono fatte attendere. In particolare, Emily Bender, un’esperta di linguistica computazionale e questioni etiche nell’elaborazione del linguaggio naturale dell’Università di Washington, si è unita ad altri critici twittando per denunciare la decisione di Microsoft di sciogliere il team di etica e società. Bender ha detto ad Ars che, in quanto estranea, pensa che la decisione di Microsoft sia stata “miope”. Ha aggiunto: “Dato quanto sia difficile e importante questo lavoro, qualsiasi taglio significativo alle persone che svolgono il lavoro è dannoso”.

La preoccupazione principale è che la mancanza di un team dedicato all’etica dell’IA possa portare a prodotti Microsoft meno sicuri e meno responsabili. Ciò potrebbe portare a conseguenze negative per gli utenti finali e la società nel suo insieme. Anche se Microsoft ha un ufficio dedicato all’IA responsabile e altri gruppi di lavoro che si occupano di questo tema, la mancanza di un team dedicato potrebbe rappresentare una grande perdita di competenze e conoscenze specifiche.

L’eliminazione del team di etica e società di Microsoft solleva anche domande più ampie sul ruolo delle autorità di regolamentazione nell’industria dell’IA. Fino ad ora, l’industria dell’IA si è basata principalmente sull’autoregolamentazione e sulle iniziative volontarie delle aziende. Tuttavia, con il continuo rapido sviluppo dell’IA, diventa sempre più importante un’adeguata regolamentazione per garantire la sicurezza e la responsabilità dell’IA.

In un’intervista con CNBC, Michael Veale, professore assistente di diritto digitale presso la University College di Londra, ha detto che l’eliminazione del team di etica e società di Microsoft “dimostra l’importanza di una regolamentazione dell’IA che non si basa solo sulla fiducia e sulla promessa delle aziende di fare la cosa giusta”.

In effetti, molte voci stanno chiedendo una maggiore regolamentazione dell’IA. Alcuni esperti suggeriscono che sia necessaria una sorta di “FDA per l’IA”, simile all’Agenzia statunitense per il controllo dei prodotti alimentari e farmaceutici, per garantire che l’IA sia sicura e responsabile.

La decisione di Microsoft di eliminare il team di etica e società solleva preoccupazioni significative per la sicurezza e la responsabilità dell’IA. Mentre l’industria dell’IA continua a crescere e svilupparsi, diventa sempre più importante una maggiore regolamentazione per garantire che l’IA sia utilizzata in modo sicuro e responsabile.

_________
Report: Microsoft cut a key AI ethics team

NEWS AIopenmind su:

3D (4)6G (1)Accademia di Comunicazione (1)Acer (1)Adobe (20)Aeronautica (8)Africa (2)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (3)AGID (1)Amazon (17)Ambiente (1)Android (4)Animali (6)Animazione (3)Anziani (1)App (5)Apple (28)Archeologia (3)Architettura (4)Armi (3)Arredamento interni (2)Arte (24)Assistente vocale (2)Astronomia (2)AT&T (1)Audio (28)Autoapprendimento (1)Avatar (3)Aviazione (1)Avvocati (2)Aziende (11)Banca (3)Bard (3)Biblioteca (1)Bill Gates (1)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (1)Calcio (2)Canva (2)Cattolicesimo (3)Certificazioni (1)Cesintes (1)chataudio (1)Chatbot IA (38)Chip (2)Cina (49)Cinema (3)Claude (5)Clima (2)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (1)Compagnie aeree (1)Computer quantistici (27)Computer Vision (3)Comuni italiani (1)Comunicazione (7)Comunicazioni vocali (2)Concorso bellezza AI (1)Contabilità (1)Convegno (10)Copilot (5)Copyright (5)Criptovalute (1)Cybersecurity (1)Dalle-2 (2)Dark web (2)Dating (1)Deepfake (2)Design automobilistico (2)Design Industriale (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)Editing fotografico (2)Editoria (7)ENEA (2)Esercito (2)Etica (110)Europol (1)Eventi (4)Evento (7)Facebook (3)FakeNews (15)Falegnameria (1)Fauna selvatica (1)Film (2)Finanza (6)Finanziamenti Italia (3)Firefly (3)Formazione (7)Fotografia (72)Francia (1)Free lance (1)G7 (1)Gaming (1)Garante privacy (16)Giappone (8)Giochi (5)Giornalismo (10)Giustizia (1)Google (160)Governo (7)Grafica (2)Guerra (10)Guida autonoma (3)Hong Kong (1)Hugging Face (1)IBM (6)Illustrazioni (1)iMessage (1)Immobiliare (1)India (3)Indossabili (2)Influencer (1)Informazione (6)Inghilterra (3)INPS (2)Intel (3)Istruzione (16)Jailbreaking (1)Lavoro (41)Libri (3)Linguistica computazionale (6)Linkedin (4)Maltrattamento infantile (1)Marina (1)Marketing (14)Medicina (21)Mercedes-Benz (1)Meta (35)Metaverso (15)Microsoft (104)Midjourney (11)Mobilità sostenibile (1)Moda (5)Motori di Ricerca (2)Mozilla (2)Musica (24)Nato (1)Natura (1)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (23)Occhiali (2)Occhiali Intelligenti (1)Occhiali Smart (1)Oculistica (1)OMS (1)ONU (1)Open Source (2)OpenAI (132)Opera (3)Opera Browser (1)Oppo (2)Oracle (1)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Pianeta (1)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (2)Privacy (17)Programmazione (7)Prompt (5)Pubblicazione (1)Pubblicità (15)QR Code (1)Qualcomm (1)Ray-Ban (1)Realtà mista (2)Reddit (1)Relazioni internazionali (2)Relazioni Pubbliche (3)Religione (1)Report (54)Ricerca scientifica (7)Riconoscimento emotivo (1)Risorse online (100)Ristorazione (2)Robotica (28)Salute (3)Samsung (4)Sanità (15)Satelliti (2)Sceneggiatura (1)Semiconduttori (2)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Meta AI e il potere delle immagini in tempo reale

Nell'era digitale in cui la tecnologia si evolve ad una velocità sorprendente, un nuovo assistente virtuale sta facendo parlare di sé: Meta AI. Grazie...

Mi sono imparato la scienza?

Fahrenheit.iit e il potere della narrazione. Mercoledì 13 marzo, ore 17:00 in Accademia di Comunicazione e in streaming Registrati La narrazione può essere la lama...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines