Sistemi di IA affidabili e sicuri. Il ruolo della standardizzazione

Di Diana Daneluz

A Torino si fa il punto, dal 4 al 6 novembre, 

nella riunione del CEN/CENELEC JTC21 organizzata da UNINFO

Articolo su Media 2000

Sebbene l’Intelligenza Artificiale (IA) esista dagli anni ’50, i rapidi sviluppi degli ultimi anni ne hanno fatto la tecnologia più pervasiva, registrando una crescita enorme degli investimenti in tecnologia e dell’uso dei sistemi di IA in quasi tutti i settori ormai, anche in ambiti estremamente delicati come quello dell’informazione e della salute e ponendo nuove sfide sia per l’industria che per la società. In generale in Italia, il mercato ICT cresce a ritmi superiori a quelli dell’economia nazionale, confermando il suo ruolo strategico per lo sviluppo economico e l’innovazione delle imprese. L’Assintel Report 2024 sul digitale, realizzato da Assintel-Confcommercio, evidenzia una crescita del +4,1% per il settore ICT business nel 2024, per un valore complessivo di 42,4 miliardi di euro, e una previsione di crescita del +4,6% nel 2025.

In Europa, aziende e organizzazioni sono chiamate ad adeguarsi al quadro normativo previsto dall’AI Act, in vigore dal 2 agosto 2024, che regola i sistemi ad alto rischio, imponendo obblighi di compliance e adempimenti diversi secondo la classe di rischio a cui appartiene il sistema di AI ([1]): rischio inaccettabile o “sistemi proibiti”,  come il riconoscimento facciale in real time; alto rischio come per esempio quelli per la gestione del personale o quelli usati nei dispositivi medici; rischio di trasparenza come per esempio i sistemi di generative AI; a minimo o nessun rischio. E dal 2 febbraio 2025 i sistemi AI definiti “proibiti” dovranno essere spenti e potranno essere immessi sul mercato solo quei sistemi AI il cui livello di rischio è conforme ai requisiti essenziali dell’AI Act.

E mentre si fa un gran parlare e scrivere intorno ai massimi sistemi rispetto a questa accelerazione tecnologica che divide come non mai il giudizio tra ottimisti e pessimisti di fronte agli innegabili rischi che la sua applicazione porta con sé, (come etica, privacy, sicurezza in primis), si lavora nel frattempo per garantire, attraverso la standardizzazione, lo sviluppo di sistemi IA affidabili, che rispettino i valori fondamentali e i diritti umani riconosciuti in Europa. Gli standard forniscono le linee guida per gestire la qualità e il rischio, sostenendo l’adozione responsabile dell’IA in un processo che mira a definire regole e perimetri per l’applicazione dell’AI, nel rispetto delle persone e dei loro diritti. Definire questi perimetri è quindi un investimento verso il futuro, ma anche una sentita necessità del nostro presente. L’attenzione della standardizzazione è rivolta a mitigare i rischi, senza limitare tuttavia la ricerca e la possibilità di realizzare prodotti diversi e innovativi.

A livello normativo, sono impegnati nello sviluppo degli standard di riferimento due gruppi di lavoro, l’ISO/IEC JTC1 SC42 (cfr. https://bit.ly/UNICT533-1) e il CEN/CENELEC JTC21 (cfr. https://bit.ly/UNICT533-2). L’ISO/IEC JTC1 SC42, internazionale, ha l’obiettivo di sviluppare norme applicabili sul mercato globale mentre il CEN/CENELEC JTC21, europeo, quello di sviluppare gli standard per soddisfare i requisiti previsti dall’AI Act riusando, quando possibile, gli standard internazionali. A questi comitati internazionali ed europei è possibile partecipare solo attraverso i comitati nazionali di normazione tecnica: per l’Italia, è possibile farlo attraverso l’UNI Ente nazionale italiano di normazione e la sua commissione UNI/CT 533 istituita presso UNINFO, sulla cui pagina dedicata https://bit.ly/UNICT533 si può trovare lo stato lavori sulla normazione in campo AI.

Sebastian Hallensleben, Chair del comitato CEN-CENELEC JTC21, ha reso pubblico su Linkedin il Piano di lavoro nella standardizzazione europea dell’AI del CEN/CENELEC, dato l’intenso interesse dell’industria, della società e dei responsabili politici per gli sviluppi degli Standard sull’AI al quale stanno contribuendo oltre un migliaio di esperti a livello dei 24 Paesi che fanno parte del comitato europeo di normazione dell’intelligenza artificiale.

Novanta di loro saranno a Torino dal 4 al 6 novembre nella riunione del CEN/CENELEC JTC21 “AI”, nell’incontro riservato ai delegati dei National Body europei e organizzato da UNI tramite UNINFO, col suo Presidente Domenico Squillace (Technical Relation Leader IBM Italia, Presidente della Commissione UNI/CT 533 AI e Commissione UNI/CT 535 Quantum Technologies). Gli esperti saranno impegnati per tre giorni in riunione plenaria e in quelle dei cinque working group del comitato sia per fare il punto sulle attività specifiche dei gruppi di lavoro sia per analizzare lo stato avanzamento dei lavori ed eventualmente approvare la creazione di nuove norme. Nello specifico, i Delegati nazionali andranno a verificare l’allineamento degli standard (esistenti o in fieri) ai requisiti dell’AI Act e relativi tra l’altro a cybersecurity, Trustworthiness, Risk management e sostenibilità ed efficienza dei sistemi AI. Da segnalare che i capo progetti delle norme su Trustworthiness e su Risk Management sono gli italiani Piercosma Bisonti e Renaud Difrancesco e che il project leader dell’unico standard interamente europeo finora prodotto dal JTC21, il CEN/CLC TR 1811 “Data governance and quality for AI within the European contect” è l’italiano Domenico Natale.

Allo stato non figurano elementi di lavoro relativi alla AI generativa nell’agenda del comitato JTC21 perché il piano di lavoro è stato definito su una versione della Standardization Request dell’AI Act che non li prevedeva. Per questa ragione, in attesa della nuova versione, la creazione di un codice di condotta per l’IA generativa, sarà invece guidata dall’ufficio dell’UE per l’IA. Funzionari UE come Tatjana Evas, Antoine-Alexandre André e Kilian Gross sono dietro a questo sforzo ed essendo strettamente coinvolti anche nei lavori del JTC21, contribuiranno ad assicurare coerenza e compatibilità.

In conclusione, un complesso lavoro è in corso. Quando la normazione tecnica sarà ultimata e vagliata dalla Commissione Europea, i produttori e gli sviluppatori avranno però degli standard di riferimento per realizzare sistemi AI conformi al nuovo quadro regolatorio.

NEWS AIopenmind su:

3D (7)6G (1)Accademia di Comunicazione (4)Acer (1)Adobe (39)Aeronautica (9)Africa (3)Agenti AI (2)Agenti autonomi (1)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (9)AGID (1)Amazon (42)Ambiente (3)AMD (1)Android (6)Animali (6)Animazione (4)Anthropic (21)Anziani (1)App (10)Apple (65)Archeologia (3)Architettura (4)Archivi storici (1)Armi (3)Arredamento interni (2)Arte (29)Assistente vocale (6)Astronomia (2)Asus (2)AT&T (1)Audi (1)Audio (55)Autoapprendimento (1)Avatar (7)Aviazione (1)Avvocati (2)Aziende (19)Banca (4)Bard (3)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)Canva (7)Cattolicesimo (3)Certificazioni (1)Cesintes (1)chataudio (1)Chatbot IA (52)Chip (3)Cina (55)Cinema (11)Claude (19)Clima (3)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (2)Compagnie aeree (1)Computer (3)Computer quantistici (32)Computer Vision (3)Comuni italiani (1)Comunicazione (10)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (1)Contabilità (1)Convegno (13)Copilot (6)Copyright (14)Criptovalute (1)Cybersecurity (1)Dalle-2 (3)Dark web (2)Data center (2)Dating (1)Deepfake (3)Design automobilistico (2)Design Industriale (6)Diritti Autore (1)Disney (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)eBay (1)Editing fotografico (3)Editoria (11)Email (1)ENEA (2)Esercito (2)Etica (136)Europol (1)Eventi (7)Evento (8)Facebook (4)FakeNews (18)Falegnameria (1)Fauna selvatica (1)Film (6)Finanza (9)Finanziamenti Italia (3)Firefly (3)Firefox (1)Fondo Monetario Internazionale (1)Formazione (20)Fotografia (110)Francia (1)Free lance (1)G7 (1)Gaming (1)Garante privacy (20)Giappone (9)Giochi (8)Giornalismo (17)Giustizia (1)Google (320)Governo (7)Governo Italiano (3)Grafica (6)Guerra (12)Guida autonoma (5)Hong Kong (1)Hugging Face (3)IBM (7)Illustrazioni (1)iMessage (1)Immobiliare (1)India (3)Indossabili (3)Influencer (1)Informazione (9)Inghilterra (7)INPS (2)Intel (7)ISO (1)Istruzione (17)Jailbreaking (1)Kamala Harris (1)Lavoro (45)Libri (3)Linguistica computazionale (7)Linkedin (8)Linux (1)Luma AI (1)Maltrattamento infantile (1)Marina (1)Marketing (80)Medicina (28)Mercedes-Benz (1)Meta (95)Metaverso (17)Meteo (1)Microsoft (189)Midjourney (18)Mobilità sostenibile (1)Moda (5)Modelli AI (52)Motori di Ricerca (12)Mozilla (2)Museo (1)Musica (39)NASA (1)Nato (2)Natura (2)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (37)Occhiali (7)Occhiali Intelligenti (2)Occhiali Smart (1)Oculistica (1)Odore (1)OMS (1)ONU (1)Open Source (2)OpenAI (270)Opera (13)Opera Browser (1)Oppo (3)Oracle (2)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (10)Pianeta (2)Plugin (1)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Google e l’IA che “legge” le emozioni: innovazione o rischio etico?

Google ha annunciato la nuova famiglia di modelli di intelligenza artificiale, PaliGemma 2, capace di analizzare immagini e, secondo l'azienda, identificare emozioni umane. Una...

Mi sono imparato la scienza?

Fahrenheit.iit e il potere della narrazione. Mercoledì 13 marzo, ore 17:00 in Accademia di Comunicazione e in streaming Registrati La narrazione può essere la lama...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines