TOPstory – Filigrane LLM vulnerabili: nuove falle nella sicurezza dei testi AI

Uno studio presentato al Simposio NDSS 2026 dimostra che le filigrane dei Large Language Model, ritenute uno strumento chiave contro l’uso improprio dei contenuti generati dall’IA, possono essere rimosse efficacemente con semplici perturbazioni a livello di carattere, anche in scenari di attacco realistici e con risorse limitate.

Le filigrane per LLM sono progettate per inserire segnali statistici invisibili nei testi generati, così da renderli identificabili a posteriori. Tuttavia, una ricerca accademica presentata al Network and Distributed System Security Symposium2026 mette in discussione la reale robustezza di questi sistemi. Secondo gli autori, le valutazioni precedenti avrebbero sovrastimato la sicurezza delle filigrane, basandosi su modelli di attacco poco realistici.

Lo studio introduce due modelli di minaccia pratici: uno senza accesso al rilevatore di filigrana e uno con accesso black-box limitato. In entrambi i casi, emerge che le perturbazioni a livello di carattere — come refusi, cancellazioni, scambi di lettere o l’uso di omoglifi — risultano molto più efficaci delle tradizionali parafrasi o sostituzioni di token. Il motivo è tecnico ma cruciale: queste micro-modifiche interrompono il processo di tokenizzazione, influenzando simultaneamente più token e indebolendo il segnale della filigrana.

Nel secondo scenario, i ricercatori propongono un attacco più sofisticato basato su algoritmi genetici, guidato da un “rilevatore di riferimento” addestrato con poche query. I test condotti su cinque schemi di watermarking e due LLM ampiamente diffusi mostrano tassi di rimozione elevati anche con budget di perturbazione ridotti.

La conclusione è netta: esiste un “dilemma avversario” per le difese. Qualsiasi contromisura statica può essere aggirata da strategie di perturbazione adattive. Il lavoro evidenzia quindi una vulnerabilità strutturale nelle attuali filigrane LLM e rafforza l’urgenza di sviluppare meccanismi di attribuzione più robusti, dinamici e resistenti agli attacchi.


Approfondimento – Cronologia e contesto

  • 2022–2024: prime proposte di watermarking per LLM come risposta a disinformazione e frodi accademiche.
    Fonte: arXiv, OpenAI, università USA ed europee.
  • 2024–2025: adozione sperimentale di filigrane e rilevatori statistici nei modelli commerciali.
    Fonte: policy paper di governi e Big Tech.
  • Febbraio 2026: presentazione dello studio al NDSS 2026, che dimostra l’efficacia di attacchi a basso costo.
    DOI ufficiale: https://dx.doi.org/10.14722/ndss.2026.230138

Consigli di approfondimento

Abstract – Pro, rischi e implicazioni

Pro: lo studio migliora la comprensione delle reali capacità degli attaccanti e smaschera false percezioni di sicurezza.
Rischi: indebolimento degli strumenti di attribuzione, aumento di disinformazione e frodi difficili da tracciare.
Implicazioni future: senza filigrane più robuste e adattive, la fiducia sociale nei contenuti digitali potrebbe erodersi, accelerando la necessità di standard normativi e soluzioni tecniche multilivello.


Filigrane LLM vulnerabili: nuove falle nella sicurezza dei testi AI

NEWS AIopenmind su:

3D (13)6G (38)Accademia di Comunicazione (4)Acer (1)Adobe (55)Aeronautica (11)Africa (6)Agenti AI (235)Agenti autonomi (2)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (67)AGID (1)Agricoltura (6)Amazon (86)Ambiente (5)AMD (6)America Latina (1)Android (10)Animali (7)Animazione (6)Anthropic (87)Anthropocosmic AI (3)Anziani (1)App (13)Apple (96)Archeologia (3)Architettura (4)Archivi storici (1)Armi (4)Arredamento interni (2)Arte (36)Asia (1)Assistente vocale (8)Astronomia (3)Asus (2)AT&T (1)Audi (1)Audio (72)Autoapprendimento (1)Avatar (8)Aviazione (1)Avvocati (4)Aziende (27)Banca (7)Bard (3)BCE (1)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)California (5)Canva (10)Cattolicesimo (3)Certificazioni (1)Character (2)Chataudio (1)Chatbot IA (56)Chip (4)Cina (190)Cinema (19)Claude (31)Clima (6)CNR (1)Coca-Cola (2)Commercio (3)Commissione Europea (6)Compagnie aeree (1)Computer (8)Computer quantistici (72)Computer Vision (3)Comuni italiani (1)Comunicazione (10)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (2)Contabilità (2)Convegno (17)Copilot (7)Copyright (33)Corea del Nord (1)Corea del Sud (5)Criptovalute (2)Cybersecurity (108)Dalle-2 (3)Danimarca (1)Dark web (3)Data center (49)Dating (1)Deepfake (6)DeepSeek (30)Design automobilistico (3)Design Industriale (7)Diritti Autore (1)Disney (3)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)Dubai (1)E-commerce (1)eBay (1)Editing fotografico (3)Editoria (18)ENEA (2)Esercito (2)etc (0)Etica (1003)Europol (3)Eventi (10)Evento (9)Facebook (5)FakeNews (24)Falegnameria (1)Fauna selvatica (1)Film (7)Finanza (78)Finanziamenti Italia (4)Firefly (3)Firefox (3)Fondo Monetario Internazionale (2)Formazione (113)Fotografia (124)Francia (6)Free lance (1)Fujitsu (1)Fusione nucleare (2)G7 (1)Gaming (3)Garante privacy (21)Gelati (1)Giappone (45)Giochi (12)Giornalismo (31)Giustizia (4)Google (623)Governo (9)Governo Italiano (6)Grafica (6)Grok (31)Guerra (31)Guida autonoma (10)Hong Kong (34)Hugging Face (6)IBM (12)Illustrazioni (1)iMessage (1)Immobiliare (1)India (19)Indossabili (4)Influencer (1)Informazione (13)Inghilterra (18)INPS (2)Intel (9)Interfacce neurali (1)ISO (1)Israele (3)Istruzione (18)Jailbreaking (1)Kamala Harris (1)Lavoro (245)Libri (5)Linguistica computazionale (12)Linkedin (12)Linux (1)Luma AI (1)Luna (1)Maltrattamento infantile (1)Marina (1)Marketing (314)Medicina (39)Medio Oriente (1)Mercedes-Benz (1)Meta (176)Metaverso (17)Meteo (2)Microsoft (305)Midjourney (18)Mistral (13)Mobilità sostenibile (2)Moda (7)Modelli AI (156)Motori di Ricerca (14)Motorola (1)Mozilla (3)Museo (1)Musica (62)NASA (5)Nato (2)Natura (8)Natural Language Processing (2)Nazioni Unite (1)NBA (1)Netflix (1)Neuralink (1)NFT (3)Norvegia (1)Nvidia (134)Occhiali (8)Occhiali Intelligenti (21)Occhiali Smart (1)Oculistica (1)Odore (1)Offerte lavoro (2)OMS (1)ONU (3)Open Source (27)OpenAI (524)Opera (17)Opera Browser (1)Oppo (3)Oracle (5)Orologio (1)papa Leone XIV (2)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (33)Pianeta (2)PlayStation (1)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (4)Privacy (34)Programmazione (22)Prompt (5)Pubblicazione (1)Pubblicità (19)QR Code (1)Qualcomm (5)Ray-Ban (7)Realtà mista (5)Reddit (8)Relazioni internazionali (2)Relazioni Pubbliche (3)Religione (1)Report (274)Ricerca scientifica (17)Riconoscimento emotivo (1)Risorse online (100)Ristorazione (5)Robotica (175)Runway (18)Russia (3)Salute (105)Samsung (26)Sanità (23)Satelliti (5)Sceneggiatura (1)Semiconduttori (11)SEO (3)Shopping online (4)Sicurezza (39)Sicurezza informatica (94)SMS (1)Snapchat (12)Soccorso (1)Società (32)SoftBank (1)Software (5)Sony (2)Sora (1)Sport (8)Spotify (12)Stability (5)Stable Animation SDK (1)Stable Diffusion (12)Stampanti (1)Standard (7)Startup (593)streaming live (1)Supercomputer (6)Superintelligenza (3)Sviluppatori (1)Sviluppo sostenibile (1)Svizzera (1)Synthesia (1)Taiwan (43)Taxi (2)Telecomunicazioni (7)Telegram (4)Televisione (2)Tesla (10)TikTok (13)Tinder (4)Torah (1)Traduttore AI (7)Trasporti (46)Truffa (2)Twitter (13)Ucraina (3)Udito (1)UE (16)UNESCO (4)UNICEF (1)Unione Europea (70)Unitree Robotics (1)Università (5)Uomo (1)USA (125)Vaticano (8)Video (155)Videocomunicazione (4)Videogiochi (19)Vietnam (1)Vigili del fuoco (1)Violenza domestica (1)Visualizzazione dati (1)Vodafone (2)Vogue Business - As Gen Z matures (0)Volkswagen (1)VPN (3)Website (14)WhatsApp (12)Wikimedia (1)Wikipedia (3)Wordpress (5)X (13)xAI (10)Xiaomi (1)Yahoo (4)Youtube (33)Zoom (10)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Chi paga l’intelligenza artificiale? La California sfida i data center

La crescita dei data center alimentati dall’intelligenza artificiale potrebbe far aumentare le bollette elettriche delle famiglie. Un nuovo rapporto della Commissione Little Hoover della...

Big Tech e politica: la battaglia sull’AI arriva al Congresso USA

Negli Stati Uniti lo scontro sulla regolamentazione dell’intelligenza artificiale si sposta sul terreno politico. Super PAC finanziati da miliardari della Silicon Valley stanno investendo...

All Digital Weeks: L’importanza di un approccio armonizzato

REGISTRATI SU Stati Generali dell’Innovazione – SGI _____________ L’avvento dell’Intelligenza Artificiale – L’importanza di un approccio armonizzato L’avvento dell’Intelligenza Artificiale (AI) rappresenta una delle più significative rivoluzioni...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines