TOPstory – Token-Guard e controllo delle allucinazioni nei LLM

Ridurre le allucinazioni nei modelli linguistici di grandi dimensioni resta una delle sfide centrali dell’IA generativa. Token-Guard propone un approccio innovativo: il controllo delle allucinazioni direttamente a livello di token, durante la fase di decodifica, senza ricorrere a costose pipeline di recupero o a lunghi processi di riaddestramento.

Un problema strutturale dei modelli generativi

I Large Language Model (LLM) possono produrre risposte fluenti ma fattualmente errate o incoerenti rispetto all’input. Tecniche consolidate come la Retrieval-Augmented Generation (RAG) o il Reinforcement Learning with Human Feedback (RLHF) mitigano il problema, ma presentano limiti evidenti: la prima dipende da infrastrutture di recupero complesse e dispendiose, la seconda richiede dataset annotati e fine-tuning su larga scala.

Come funziona Token-Guard

Token-Guard introduce una decodifica autocontrollante che verifica ogni token generato prima che contribuisca all’output finale. A ogni passo di generazione, il sistema esegue un controllo interno del ragionamento, individuando potenziali segnali di allucinazione.
I frammenti sospetti vengono quindi valutati in uno spazio latente, dove un punteggio esplicito stima il rischio di allucinazione. Se il rischio supera una soglia definita, il token o la sequenza vengono potati e rigenerati in modo iterativo, correggendo dinamicamente l’errore prima che si propaghi nel testo.

Risultati sperimentali

Le valutazioni condotte sul dataset HALU, progettato per testare la robustezza fattuale dei modelli, mostrano una riduzione significativa delle allucinazioni rispetto ai metodi di decodifica standard. Oltre a migliorare l’accuratezza, Token-Guard mantiene un’impostazione modulare e scalabile, integrabile in modelli esistenti senza modifiche architetturali profonde.

Implicazioni

L’approccio sposta il controllo dell’affidabilità dal post-processing al cuore del processo generativo, aprendo la strada a sistemi LLM più trasparenti e verificabili. Il rilascio pubblico del codice rafforza inoltre la riproducibilità e l’adozione in contesti industriali e di ricerca.


Approfondimento – Cronologia e contesto

Consigli di approfondimento

  • Stanford CRFM – Affidabilità dei foundation model
    https://crfm.stanford.edu
  • NIST – AI Risk Management Framework
    https://www.nist.gov/ai

Abstract conclusivo: pro e rischi

Pro: riduzione delle allucinazioni in tempo reale, maggiore affidabilità, integrazione modulare.
Rischi: aumento della complessità computazionale in fase di decodifica, necessità di soglie di rischio ben calibrate.
Impatto sociale: sistemi più affidabili possono rafforzare fiducia e adozione dell’IA, ma un controllo automatizzato del “vero” richiede governance trasparente per evitare bias sistemici e nuove forme di censura algoritmica.


Token-Guard e controllo delle allucinazioni nei LLM

NEWS AIopenmind su:

3D (13)6G (38)Accademia di Comunicazione (4)Acer (1)Adobe (55)Aeronautica (11)Africa (6)Agenti AI (235)Agenti autonomi (2)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (67)AGID (1)Agricoltura (6)Amazon (86)Ambiente (5)AMD (6)America Latina (1)Android (10)Animali (7)Animazione (6)Anthropic (87)Anthropocosmic AI (3)Anziani (1)App (13)Apple (96)Archeologia (3)Architettura (4)Archivi storici (1)Armi (4)Arredamento interni (2)Arte (36)Asia (1)Assistente vocale (8)Astronomia (3)Asus (2)AT&T (1)Audi (1)Audio (72)Autoapprendimento (1)Avatar (8)Aviazione (1)Avvocati (4)Aziende (27)Banca (7)Bard (3)BCE (1)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)California (5)Canva (10)Cattolicesimo (3)Certificazioni (1)Character (2)Chataudio (1)Chatbot IA (56)Chip (4)Cina (190)Cinema (19)Claude (31)Clima (6)CNR (1)Coca-Cola (2)Commercio (3)Commissione Europea (6)Compagnie aeree (1)Computer (8)Computer quantistici (72)Computer Vision (3)Comuni italiani (1)Comunicazione (10)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (2)Contabilità (2)Convegno (17)Copilot (7)Copyright (33)Corea del Nord (1)Corea del Sud (5)Criptovalute (2)Cybersecurity (108)Dalle-2 (3)Danimarca (1)Dark web (3)Data center (49)Dating (1)Deepfake (6)DeepSeek (30)Design automobilistico (3)Design Industriale (7)Diritti Autore (1)Disney (3)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)Dubai (1)E-commerce (1)eBay (1)Editing fotografico (3)Editoria (18)ENEA (2)Esercito (2)etc (0)Etica (1003)Europol (3)Eventi (10)Evento (9)Facebook (5)FakeNews (24)Falegnameria (1)Fauna selvatica (1)Film (7)Finanza (78)Finanziamenti Italia (4)Firefly (3)Firefox (3)Fondo Monetario Internazionale (2)Formazione (113)Fotografia (124)Francia (6)Free lance (1)Fujitsu (1)Fusione nucleare (2)G7 (1)Gaming (3)Garante privacy (21)Gelati (1)Giappone (45)Giochi (12)Giornalismo (31)Giustizia (4)Google (623)Governo (9)Governo Italiano (6)Grafica (6)Grok (31)Guerra (31)Guida autonoma (10)Hong Kong (34)Hugging Face (6)IBM (12)Illustrazioni (1)iMessage (1)Immobiliare (1)India (19)Indossabili (4)Influencer (1)Informazione (13)Inghilterra (18)INPS (2)Intel (9)Interfacce neurali (1)ISO (1)Israele (3)Istruzione (18)Jailbreaking (1)Kamala Harris (1)Lavoro (245)Libri (5)Linguistica computazionale (12)Linkedin (12)Linux (1)Luma AI (1)Luna (1)Maltrattamento infantile (1)Marina (1)Marketing (314)Medicina (39)Medio Oriente (1)Mercedes-Benz (1)Meta (176)Metaverso (17)Meteo (2)Microsoft (305)Midjourney (18)Mistral (13)Mobilità sostenibile (2)Moda (7)Modelli AI (156)Motori di Ricerca (14)Motorola (1)Mozilla (3)Museo (1)Musica (62)NASA (5)Nato (2)Natura (8)Natural Language Processing (2)Nazioni Unite (1)NBA (1)Netflix (1)Neuralink (1)NFT (3)Norvegia (1)Nvidia (134)Occhiali (8)Occhiali Intelligenti (21)Occhiali Smart (1)Oculistica (1)Odore (1)Offerte lavoro (2)OMS (1)ONU (3)Open Source (27)OpenAI (524)Opera (17)Opera Browser (1)Oppo (3)Oracle (5)Orologio (1)papa Leone XIV (2)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (33)Pianeta (2)PlayStation (1)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (4)Privacy (34)Programmazione (22)Prompt (5)Pubblicazione (1)Pubblicità (19)QR Code (1)Qualcomm (5)Ray-Ban (7)Realtà mista (5)Reddit (8)Relazioni internazionali (2)Relazioni Pubbliche (3)Religione (1)Report (274)Ricerca scientifica (17)Riconoscimento emotivo (1)Risorse online (100)Ristorazione (5)Robotica (175)Runway (18)Russia (3)Salute (105)Samsung (26)Sanità (23)Satelliti (5)Sceneggiatura (1)Semiconduttori (11)SEO (3)Shopping online (4)Sicurezza (39)Sicurezza informatica (94)SMS (1)Snapchat (12)Soccorso (1)Società (32)SoftBank (1)Software (5)Sony (2)Sora (1)Sport (8)Spotify (12)Stability (5)Stable Animation SDK (1)Stable Diffusion (12)Stampanti (1)Standard (7)Startup (593)streaming live (1)Supercomputer (6)Superintelligenza (3)Sviluppatori (1)Sviluppo sostenibile (1)Svizzera (1)Synthesia (1)Taiwan (43)Taxi (2)Telecomunicazioni (7)Telegram (4)Televisione (2)Tesla (10)TikTok (13)Tinder (4)Torah (1)Traduttore AI (7)Trasporti (46)Truffa (2)Twitter (13)Ucraina (3)Udito (1)UE (16)UNESCO (4)UNICEF (1)Unione Europea (70)Unitree Robotics (1)Università (5)Uomo (1)USA (125)Vaticano (8)Video (155)Videocomunicazione (4)Videogiochi (19)Vietnam (1)Vigili del fuoco (1)Violenza domestica (1)Visualizzazione dati (1)Vodafone (2)Vogue Business - As Gen Z matures (0)Volkswagen (1)VPN (3)Website (14)WhatsApp (12)Wikimedia (1)Wikipedia (3)Wordpress (5)X (13)xAI (10)Xiaomi (1)Yahoo (4)Youtube (33)Zoom (10)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Chi paga l’intelligenza artificiale? La California sfida i data center

La crescita dei data center alimentati dall’intelligenza artificiale potrebbe far aumentare le bollette elettriche delle famiglie. Un nuovo rapporto della Commissione Little Hoover della...

Big Tech e politica: la battaglia sull’AI arriva al Congresso USA

Negli Stati Uniti lo scontro sulla regolamentazione dell’intelligenza artificiale si sposta sul terreno politico. Super PAC finanziati da miliardari della Silicon Valley stanno investendo...

All Digital Weeks: L’importanza di un approccio armonizzato

REGISTRATI SU Stati Generali dell’Innovazione – SGI _____________ L’avvento dell’Intelligenza Artificiale – L’importanza di un approccio armonizzato L’avvento dell’Intelligenza Artificiale (AI) rappresenta una delle più significative rivoluzioni...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines