Dichiarazione politica sull’uso militare responsabile dell’intelligenza artificiale e dell’autonomia

Il governo degli Stati Uniti ha annunciato la pubblicazione della “Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy” sull’IA responsabile nel settore militare (REAIM 2023). La Dichiarazione è stata presentata con l’obiettivo di costruire un consenso internazionale su come le forze armate possono incorporare responsabilmente l’intelligenza artificiale e l’autonomia nelle loro operazioni, in modo da guidare lo sviluppo, il dispiegamento e l’uso di questa tecnologia da parte degli Stati per scopi di difesa.

La Dichiarazione è costituita da una serie di linee guida non giuridicamente vincolanti che descrivono le migliori pratiche per un uso responsabile dell’IA in un contesto di difesa. Tra le raccomandazioni, si evidenzia l’importanza di garantire che i sistemi di intelligenza artificiale militare siano verificabili, abbiano usi espliciti e ben definiti, siano soggetti a test e valutazioni rigorosi durante il loro ciclo di vita e che le applicazioni ad alto impatto siano sottoposte a revisione di alto livello e possano essere disattivate se dimostrano comportamento non responsabile.

La Dichiarazione rappresenta un importante passo avanti verso l’adozione di standard internazionali per l’uso responsabile dell’IA e dell’autonomia nel settore militare. Inoltre, riconosce la necessitĂ  di collaborare con altre nazioni per affrontare questa sfida globale e promuove una maggiore trasparenza e responsabilitĂ  nell’uso della tecnologia in campo militare.

Il governo degli Stati Uniti ha lodato i Paesi Bassi e la Repubblica di Corea per aver co-ospitato il vertice REAIM e per aver avviato una tempestiva discussione su questo argomento. Ciò dimostra l’importanza di una collaborazione internazionale per promuovere l’adozione di standard comuni per l’uso dell’IA in campo militare.

Il vertice internazionale sull’Intelligenza Artificiale Militare, co-ospitato dai Paesi Bassi e dalla Corea del Sud, ha portato alla firma di un modesto “invito all’azione” da parte di piĂą di 60 paesi, tra cui Stati Uniti e Cina, a favore dell’uso responsabile dell’IA in campo militare. Tuttavia, esperti di diritti umani e accademici hanno notato che la dichiarazione non è legalmente vincolante e non affronta preoccupazioni importanti come l’uso dei droni guidati dall’IA, dei “robot massacratori” che potrebbero uccidere senza intervento umano e il rischio che l’IA possa intensificare un conflitto militare.

La conferenza è arrivata in un momento in cui l’interesse per l’Intelligenza Artificiale è ai massimi storici grazie a programmi come ChatGPT di OpenAI, e anche perchĂ© l’Ucraina ha utilizzato il riconoscimento facciale e i sistemi di targeting assistito dall’IA nella sua lotta con la Russia. Tuttavia, la Russia non è stata invitata alla conferenza dopo la sua invasione dell’Ucraina nel 2022, che Mosca definisce una “operazione militare speciale”, e l’Ucraina stessa non ha partecipato.

Israele ha partecipato alla conferenza ma non ha firmato la dichiarazione. Gli Stati Uniti, insieme ad altri paesi potenti, sono stati riluttanti ad accettare qualsiasi limitazione legale sull’uso dell’IA, per paura che ciò potesse metterli in una posizione di svantaggio rispetto ai rivali. Tuttavia, il sottosegretario di Stato americano per il controllo degli armamenti e Bonnie Jenkins ha presentato un quadro statunitense per un uso responsabile dell’IA militare.

Secondo la proposta degli Stati Uniti, i sistemi di armi IA dovrebbero coinvolgere “livelli adeguati di giudizio umano”, in linea con le linee guida aggiornate sulle armi autonome letali emesse dal Dipartimento della Difesa il mese scorso. Tuttavia, Human Rights Watch ha sfidato gli Stati Uniti a definire “appropriato” e a iniziare a negoziare una legge vincolante a livello internazionale, invece di armeggiare con dichiarazioni politiche.

Il rappresentante cinese Jian Tan ha affermato che i paesi dovrebbero “opporsi alla ricerca di vantaggi militari ed egemonia assoluti attraverso l’IA” e lavorare attraverso le Nazioni Unite. Tuttavia, Jessica Dorsey, assistente professore di diritto internazionale all’UniversitĂ  di Utrecht, ha definito la proposta degli Stati Uniti una “occasione persa” per la leadership e ha affermato che la dichiarazione del vertice è troppo debole, aprendo la strada agli stati per sviluppare l’IA per scopi militari in qualsiasi modo ritengano opportuno, purchĂ© possano dire che è “responsabile”.

_______

Si riporta traduzione in italiano
Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy

La Dichiarazione politica sull’uso militare responsabile dell’intelligenza artificiale e dell’autonomia rappresenta un importante passo avanti nella definizione di linee guida e standard internazionali per l’uso dell’IA nel settore militare. Il documento promuove la responsabilitĂ  e la trasparenza nell’uso della tecnologia e rappresenta un impegno importante da parte degli Stati Uniti e degli altri paesi per garantire la sicurezza e la stabilitĂ  internazionale.

Un numero crescente di Stati sta sviluppando capacitĂ  di IA militare, che possono includere l’uso dell’IA per abilitare sistemi autonomi.1 L’uso militare dell’IA può e deve essere etico, responsabile e rafforzare la sicurezza internazionale. L’uso dell’intelligenza artificiale nei conflitti armati deve essere conforme al diritto internazionale umanitario applicabile, compresi i suoi principi fondamentali. L’uso militare delle capacitĂ  di intelligenza artificiale deve essere responsabile, anche attraverso tale uso durante le operazioni militari all’interno di una catena umana responsabile di comando e controllo. Un approccio di principio all’uso militare dell’IA dovrebbe includere un’attenta considerazione dei rischi e dei benefici e dovrebbe anche ridurre al minimo i pregiudizi e gli incidenti non intenzionali. Gli Stati dovrebbero adottare misure appropriate per garantire lo sviluppo, il dispiegamento e l’uso responsabili delle loro capacitĂ  di IA militare, comprese quelle che abilitano i sistemi autonomi. Queste misure dovrebbero essere applicate durante tutto il ciclo di vita delle capacitĂ  di IA militare.

Le seguenti dichiarazioni riflettono le migliori pratiche che gli Stati firmatari ritengono debbano essere attuate nello sviluppo, dispiegamento e utilizzo delle capacitĂ  di intelligenza artificiale militare, comprese quelle che abilitano i sistemi autonomi:

  1. Gli Stati dovrebbero adottare misure efficaci, come le revisioni legali, per garantire che le loro capacitĂ  di IA militare siano utilizzate solo in conformitĂ  con i rispettivi obblighi ai sensi del diritto internazionale, in particolare del diritto internazionale umanitario.
  2. Gli Stati dovrebbero mantenere il controllo e il coinvolgimento umano per tutte le azioni fondamentali per informare ed eseguire decisioni sovrane riguardanti l’impiego di armi nucleari.
  3. Gli Stati dovrebbero garantire che gli alti funzionari sovrintendano allo sviluppo e al dispiegamento di tutte le capacitĂ  di intelligenza artificiale militare con applicazioni ad alto impatto, inclusi, ma non limitati a, i sistemi d’arma.
  4. Gli Stati dovrebbero adottare, pubblicare e attuare principi per la progettazione, lo sviluppo, il dispiegamento e l’uso responsabili delle capacitĂ  di intelligenza artificiale da parte delle loro organizzazioni militari.
  5. Gli Stati dovrebbero garantire che il personale interessato eserciti un’attenzione adeguata, inclusi livelli adeguati di giudizio umano, nello sviluppo, dispiegamento e utilizzo delle capacitĂ  di IA militare, compresi i sistemi d’arma che incorporano tali capacitĂ .
  6. Gli Stati dovrebbero garantire che vengano prese misure deliberate per ridurre al minimo i pregiudizi involontari nelle capacitĂ  di IA militare.
  7. Gli Stati dovrebbero garantire che le capacitĂ  di IA militare siano sviluppate con metodologie, fonti di dati, procedure di progettazione e documentazione verificabili.
  8. Gli Stati dovrebbero garantire che il personale che utilizza o approva l’uso delle capacitĂ  di IA militare sia addestrato in modo da comprendere a sufficienza le capacitĂ  e i limiti di tali capacitĂ  e possa formulare giudizi informati sul contesto sul loro utilizzo.
  9. Gli Stati dovrebbero garantire che le capacitĂ  di IA militare abbiano usi espliciti e ben definiti e che siano progettate e progettate per svolgere le funzioni previste.
  10. Gli Stati dovrebbero garantire che la sicurezza, la protezione e l’efficacia delle capacitĂ  di IA militare siano soggette a test e garanzie appropriati e rigorosi all’interno dei loro usi ben definiti e durante l’intero ciclo di vita. Anche le capacitĂ  di IA militare di autoapprendimento o aggiornamento continuo dovrebbero essere soggette a un processo di monitoraggio per garantire che le caratteristiche di sicurezza critiche non siano state degradate.
  11. Gli Stati dovrebbero progettare e progettare capacitĂ  di intelligenza artificiale militare in modo che possiedano la capacitĂ  di rilevare ed evitare conseguenze indesiderate e la capacitĂ  di disattivare o disattivare i sistemi dispiegati che dimostrano comportamenti non intenzionali. Gli Stati dovrebbero inoltre implementare altre adeguate salvaguardie per mitigare i rischi di gravi guasti. Queste salvaguardie possono essere tratte da quelle progettate per tutti i sistemi militari, nonchĂ© da quelle per le capacitĂ  di intelligenza artificiale non destinate all’uso militare.
  12. Gli Stati dovrebbero portare avanti discussioni continue su come le capacitĂ  di IA militare siano sviluppate, dispiegate e utilizzate in modo responsabile, per promuovere l’effettiva attuazione di queste pratiche e l’istituzione di altre pratiche che gli Stati firmatari ritengano appropriate. Queste discussioni dovrebbero includere la considerazione di come implementare queste pratiche nel contesto delle loro esportazioni di capacitĂ  di IA militare.

Gli Stati firmatari:

  • attuare queste pratiche durante lo sviluppo, il dispiegamento o l’utilizzo di capacitĂ  di intelligenza artificiale militare, comprese quelle che abilitano sistemi autonomi;
  • descrivere pubblicamente il loro impegno in queste pratiche;
  • sostenere altri sforzi appropriati per garantire che tali capacitĂ  siano utilizzate in modo responsabile e legale; E
  • impegnare ulteriormente il resto della comunitĂ  internazionale a promuovere tali pratiche, anche in altri consessi su argomenti correlati, e fatte salve le discussioni in corso su argomenti correlati in altri consessi.

[1] I concetti di intelligenza artificiale e autonomia sono soggetti a una serie di interpretazioni. Ai fini della presente Dichiarazione, l’intelligenza artificiale può essere intesa come riferita alla capacitĂ  delle macchine di eseguire compiti che altrimenti richiederebbero l’intelligenza umana, ad esempio riconoscere modelli, apprendere dall’esperienza, trarre conclusioni, fare previsioni o agire, sia che digitalmente o come software intelligente alla base di sistemi fisici autonomi. Allo stesso modo, l’autonomia può essere intesa come implicante un sistema che funziona senza ulteriore intervento umano dopo l’attivazione

_______
China attaches great importance to AI security governance: ambassador
China attaches great importance to AI security governance: ambassador
U.S., China, other nations urge ‘responsible’ use of military AI
U.S., China, other nations urge ‘responsible’ use of military AI
US, China, other nations urge ‘responsible’ use of military AI

NEWS AIopenmind su:

3D (5)6G (1)Accademia di Comunicazione (4)Acer (1)Adobe (30)Aeronautica (9)Africa (2)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (4)AGID (1)Amazon (24)Ambiente (1)AMD (1)Android (5)Animali (6)Animazione (4)Anthropic (1)Anziani (1)App (7)Apple (46)Archeologia (3)Architettura (4)Armi (3)Arredamento interni (2)Arte (26)Assistente vocale (3)Astronomia (2)Asus (1)AT&T (1)Audi (1)Audio (49)Autoapprendimento (1)Avatar (3)Aviazione (1)Avvocati (2)Aziende (15)Banca (3)Bard (3)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)Canva (3)Cattolicesimo (3)Certificazioni (1)Cesintes (1)chataudio (1)Chatbot IA (41)Chip (3)Cina (51)Cinema (4)Claude (15)Clima (3)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (1)Compagnie aeree (1)Computer (2)Computer quantistici (30)Computer Vision (3)Comuni italiani (1)Comunicazione (9)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (1)ContabilitĂ  (1)Convegno (13)Copilot (5)Copyright (11)Criptovalute (1)Cybersecurity (1)Dalle-2 (2)Dark web (2)Dating (1)Deepfake (2)Design automobilistico (2)Design Industriale (6)Diritti Autore (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)eBay (1)Editing fotografico (2)Editoria (8)Email (1)ENEA (2)Esercito (2)Etica (117)Europol (1)Eventi (4)Evento (7)Facebook (3)FakeNews (18)Falegnameria (1)Fauna selvatica (1)Film (2)Finanza (7)Finanziamenti Italia (3)Firefly (3)Fondo Monetario Internazionale (1)Formazione (10)Fotografia (91)Francia (1)Free lance (1)G7 (1)Gaming (1)Garante privacy (18)Giappone (9)Giochi (6)Giornalismo (10)Giustizia (1)Google (210)Governo (7)Governo Italiano (2)Grafica (5)Guerra (12)Guida autonoma (3)Hong Kong (1)Hugging Face (3)IBM (6)Illustrazioni (1)iMessage (1)Immobiliare (1)India (3)Indossabili (2)Influencer (1)Informazione (9)Inghilterra (5)INPS (2)Intel (5)ISO (1)Istruzione (16)Jailbreaking (1)Lavoro (43)Libri (3)Linguistica computazionale (7)Linkedin (6)Luma AI (1)Maltrattamento infantile (1)Marina (1)Marketing (37)Medicina (23)Mercedes-Benz (1)Meta (51)Metaverso (15)Microsoft (139)Midjourney (13)MobilitĂ  sostenibile (1)Moda (5)Modelli AI (21)Motori di Ricerca (11)Mozilla (2)Musica (31)NASA (1)Nato (2)Natura (1)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (29)Occhiali (2)Occhiali Intelligenti (1)Occhiali Smart (1)Oculistica (1)OMS (1)ONU (1)Open Source (2)OpenAI (189)Opera (8)Opera Browser (1)Oppo (3)Oracle (2)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (3)Pianeta (1)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (2)Privacy (19)Programmazione (10)Prompt (5)Pubblicazione (1)PubblicitĂ  (18)QR Code (1)Qualcomm (3)Ray-Ban (2)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Modelli AI piĂą sicuri: la Rivoluzione di OpenAI

OpenAI ha introdotto un metodo innovativo per migliorare la sicurezza dei modelli di intelligenza artificiale (AI) utilizzando le Ricompense Basate su Regole (RBR). Questo...

White paper gratuito su come integrare l’AI generativa in azienda

L’introduzione dell’intelligenza artificiale generativa nel mondo aziendale ha rappresentato una vera e propria rivoluzione, innescata dal lancio di ChatGPT circa diciotto mesi fa. Questo...

Mi sono imparato la scienza?

Fahrenheit.iit e il potere della narrazione. Mercoledì 13 marzo, ore 17:00 in Accademia di Comunicazione e in streaming Registrati La narrazione può essere la lama...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines