TOPstory – Attacchi di model extraction: i rischi nascosti delle spiegazioni AI

Le spiegazioni controfattuali, pensate per rendere l’AI più trasparente, possono diventare un’arma per ricostruire modelli riservati. Un nuovo studio teorico mostra come, nel caso di modelli lineari, bastino pochissime query per comprometterne la sicurezza.

L’estrazione di modelli (model extraction) è una delle minacce emergenti alla sicurezza dei sistemi di intelligenza artificiale. Un recente lavoro accademico pubblicato su arXiv (febbraio 2026) analizza in profondità come le query fattuali e controfattuali possano essere sfruttate per ricostruire completamente un modello lineare “black box”, mettendo a rischio proprietà intellettuale e privacy.

Lo studio si concentra su tre tipi di interrogazioni: query fattuali, controfattuali esatte e controfattuali robuste. Gli autori dimostrano che, anche senza recuperare direttamente i parametri del modello, è possibile delimitare matematicamente le regioni di classificazione note a partire da un insieme arbitrario di risposte. Il risultato più critico riguarda però l’estrazione completa dei parametri: con misure di distanza differenziabili (come la norma ℓ2), una singola query controfattuale può essere sufficiente per ricostruire l’intero modello. Al contrario, usando distanze poliedrali (ad esempio ℓ1 o ℓ∞), il numero di query cresce linearmente con la dimensione dei dati e raddoppia nel caso di controfattuali robusti.

Questi risultati rafforzano un punto già evidenziato dalla letteratura sulla sicurezza dell’AI: spiegabilità e protezione del modello sono spesso in tensione. Le spiegazioni controfattuali, promosse dall’Explainable AI per aumentare fiducia e accountability, possono diventare vettori di attacco se non progettate con adeguate garanzie.

Il tema è particolarmente rilevante nei settori regolamentati. Normative come il Comitato di Basilea per la vigilanza bancaria (BCBS), il Regolamento generale sulla protezione dei dati e le linee guida Federal Reserve System sul model risk management spingono verso modelli interpretabili, spesso lineari. Proprio questi modelli, però, risultano più facilmente estraibili.


Approfondimento – Cronologia essenziale

  • 2015 – Fredrikson et al.: primi attacchi di model inversion.
    https://www.usenix.org/conference/usenixsecurity15/technical-sessions/presentation/fredrikson
  • 2017 – Wachter et al.: definizione delle spiegazioni controfattuali.
    https://arxiv.org/abs/1711.00399
  • 2019–2024 – Studi su rischi di sicurezza delle spiegazioni AI (Milli, Shokri, Nguyen).
    https://arxiv.org/abs/1907.01197
  • 2026 – Studio su Linear Model Extraction via Factual and Counterfactual Queries.
    https://arxiv.org/abs/2602.09748

Consigli di approfondimento


Abstract – Pro, rischi e implicazioni sociali

Le spiegazioni controfattuali migliorano trasparenza e contestabilità delle decisioni automatiche. Tuttavia, se non mitigate, facilitano l’estrazione di modelli e l’esposizione di informazioni sensibili. Il rischio etico è una normalizzazione di sistemi “trasparenti ma vulnerabili”, con conseguenze su concorrenza, privacy e fiducia pubblica. In futuro, sarà cruciale integrare spiegabilità e security-by-design, bilanciando diritto alla spiegazione e protezione dei modelli.


Attacchi di model extraction: i rischi nascosti delle spiegazioni AI

NEWS AIopenmind su:

3D (13)6G (38)Accademia di Comunicazione (4)Acer (1)Adobe (55)Aeronautica (11)Africa (6)Agenti AI (235)Agenti autonomi (2)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (67)AGID (1)Agricoltura (6)Amazon (86)Ambiente (5)AMD (6)America Latina (1)Android (10)Animali (7)Animazione (6)Anthropic (87)Anthropocosmic AI (3)Anziani (1)App (13)Apple (96)Archeologia (3)Architettura (4)Archivi storici (1)Armi (4)Arredamento interni (2)Arte (36)Asia (1)Assistente vocale (8)Astronomia (3)Asus (2)AT&T (1)Audi (1)Audio (72)Autoapprendimento (1)Avatar (8)Aviazione (1)Avvocati (4)Aziende (27)Banca (7)Bard (3)BCE (1)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)California (5)Canva (10)Cattolicesimo (3)Certificazioni (1)Character (2)Chataudio (1)Chatbot IA (56)Chip (4)Cina (190)Cinema (19)Claude (31)Clima (6)CNR (1)Coca-Cola (2)Commercio (3)Commissione Europea (6)Compagnie aeree (1)Computer (8)Computer quantistici (72)Computer Vision (3)Comuni italiani (1)Comunicazione (10)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (2)Contabilità (2)Convegno (17)Copilot (7)Copyright (33)Corea del Nord (1)Corea del Sud (5)Criptovalute (2)Cybersecurity (108)Dalle-2 (3)Danimarca (1)Dark web (3)Data center (49)Dating (1)Deepfake (6)DeepSeek (30)Design automobilistico (3)Design Industriale (7)Diritti Autore (1)Disney (3)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)Dubai (1)E-commerce (1)eBay (1)Editing fotografico (3)Editoria (18)ENEA (2)Esercito (2)etc (0)Etica (1003)Europol (3)Eventi (10)Evento (9)Facebook (5)FakeNews (24)Falegnameria (1)Fauna selvatica (1)Film (7)Finanza (78)Finanziamenti Italia (4)Firefly (3)Firefox (3)Fondo Monetario Internazionale (2)Formazione (113)Fotografia (124)Francia (6)Free lance (1)Fujitsu (1)Fusione nucleare (2)G7 (1)Gaming (3)Garante privacy (21)Gelati (1)Giappone (45)Giochi (12)Giornalismo (31)Giustizia (4)Google (623)Governo (9)Governo Italiano (6)Grafica (6)Grok (31)Guerra (31)Guida autonoma (10)Hong Kong (34)Hugging Face (6)IBM (12)Illustrazioni (1)iMessage (1)Immobiliare (1)India (19)Indossabili (4)Influencer (1)Informazione (13)Inghilterra (18)INPS (2)Intel (9)Interfacce neurali (1)ISO (1)Israele (3)Istruzione (18)Jailbreaking (1)Kamala Harris (1)Lavoro (245)Libri (5)Linguistica computazionale (12)Linkedin (12)Linux (1)Luma AI (1)Luna (1)Maltrattamento infantile (1)Marina (1)Marketing (314)Medicina (39)Medio Oriente (1)Mercedes-Benz (1)Meta (176)Metaverso (17)Meteo (2)Microsoft (305)Midjourney (18)Mistral (13)Mobilità sostenibile (2)Moda (7)Modelli AI (156)Motori di Ricerca (14)Motorola (1)Mozilla (3)Museo (1)Musica (62)NASA (5)Nato (2)Natura (8)Natural Language Processing (2)Nazioni Unite (1)NBA (1)Netflix (1)Neuralink (1)NFT (3)Norvegia (1)Nvidia (134)Occhiali (8)Occhiali Intelligenti (21)Occhiali Smart (1)Oculistica (1)Odore (1)Offerte lavoro (2)OMS (1)ONU (3)Open Source (27)OpenAI (524)Opera (17)Opera Browser (1)Oppo (3)Oracle (5)Orologio (1)papa Leone XIV (2)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (33)Pianeta (2)PlayStation (1)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (4)Privacy (34)Programmazione (22)Prompt (5)Pubblicazione (1)Pubblicità (19)QR Code (1)Qualcomm (5)Ray-Ban (7)Realtà mista (5)Reddit (8)Relazioni internazionali (2)Relazioni Pubbliche (3)Religione (1)Report (274)Ricerca scientifica (17)Riconoscimento emotivo (1)Risorse online (100)Ristorazione (5)Robotica (175)Runway (18)Russia (3)Salute (105)Samsung (26)Sanità (23)Satelliti (5)Sceneggiatura (1)Semiconduttori (11)SEO (3)Shopping online (4)Sicurezza (39)Sicurezza informatica (94)SMS (1)Snapchat (12)Soccorso (1)Società (32)SoftBank (1)Software (5)Sony (2)Sora (1)Sport (8)Spotify (12)Stability (5)Stable Animation SDK (1)Stable Diffusion (12)Stampanti (1)Standard (7)Startup (593)streaming live (1)Supercomputer (6)Superintelligenza (3)Sviluppatori (1)Sviluppo sostenibile (1)Svizzera (1)Synthesia (1)Taiwan (43)Taxi (2)Telecomunicazioni (7)Telegram (4)Televisione (2)Tesla (10)TikTok (13)Tinder (4)Torah (1)Traduttore AI (7)Trasporti (46)Truffa (2)Twitter (13)Ucraina (3)Udito (1)UE (16)UNESCO (4)UNICEF (1)Unione Europea (70)Unitree Robotics (1)Università (5)Uomo (1)USA (125)Vaticano (8)Video (155)Videocomunicazione (4)Videogiochi (19)Vietnam (1)Vigili del fuoco (1)Violenza domestica (1)Visualizzazione dati (1)Vodafone (2)Vogue Business - As Gen Z matures (0)Volkswagen (1)VPN (3)Website (14)WhatsApp (12)Wikimedia (1)Wikipedia (3)Wordpress (5)X (13)xAI (10)Xiaomi (1)Yahoo (4)Youtube (33)Zoom (10)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Chi paga l’intelligenza artificiale? La California sfida i data center

La crescita dei data center alimentati dall’intelligenza artificiale potrebbe far aumentare le bollette elettriche delle famiglie. Un nuovo rapporto della Commissione Little Hoover della...

Big Tech e politica: la battaglia sull’AI arriva al Congresso USA

Negli Stati Uniti lo scontro sulla regolamentazione dell’intelligenza artificiale si sposta sul terreno politico. Super PAC finanziati da miliardari della Silicon Valley stanno investendo...

All Digital Weeks: L’importanza di un approccio armonizzato

REGISTRATI SU Stati Generali dell’Innovazione – SGI _____________ L’avvento dell’Intelligenza Artificiale – L’importanza di un approccio armonizzato L’avvento dell’Intelligenza Artificiale (AI) rappresenta una delle più significative rivoluzioni...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines