Perché i modelli linguistici allucinano: analisi delle cause e soluzioni possibili

I grandi modelli linguistici (LLM), alla base di strumenti come ChatGPT o Gemini, spesso producono affermazioni plausibili ma errate, note come “allucinazioni”. Un recente studio firmato da Adam Tauman Kalai, Ofir Nachum, Santosh S. Vempala ed Edwin Zhang spiega le ragioni statistiche e metodologiche di questo fenomeno, evidenziando implicazioni etiche e possibili rimedi.

Gli autori paragonano i LLM a studenti di fronte a domande d’esame complesse: quando non conoscono la risposta, tendono a “tirare a indovinare” invece di ammettere incertezza. Questa dinamica non è casuale: deriva dalle procedure di addestramento e valutazione che premiano la capacità di fornire un’ipotesi coerente piuttosto che riconoscere i limiti della conoscenza.

Dal punto di vista tecnico, le allucinazioni emergono come errori nella classificazione binaria. Se un modello non riesce a distinguere nettamente tra affermazioni corrette ed errate, le pressioni statistiche naturali del processo di addestramento porteranno inevitabilmente a produrre contenuti fuorvianti. A peggiorare il quadro contribuisce il sistema di valutazione attuale: i benchmark dominanti incoraggiano i modelli a sembrare sicuri anche quando non lo sono.

Gli studiosi sostengono che la soluzione non passi solo da nuove metriche sulle allucinazioni, ma da una revisione socio-tecnica più profonda: occorre riformare i criteri di valutazione premiando la trasparenza e il riconoscimento dell’incertezza. Un cambiamento che potrebbe ridurre le distorsioni cognitive artificiali e aumentare la fiducia negli strumenti di IA.


Approfondimento cronologico

  • 2019-2020: Emergenza del termine hallucinations nei primi studi su GPT-2 e GPT-3.
  • 2022: Prime ricerche sistematiche sull’affidabilità delle risposte di LLM (MIT, Stanford).
  • 2023: Cresce l’attenzione accademica e industriale, con OpenAI e Anthropic che introducono “AI alignment” e “red teaming”.
  • 2024-2025: Studi come quello di Kalai et al. evidenziano la necessità di ripensare i benchmark.

Fonti:

Consigli di approfondimento

  • Analisi di Yoshua Bengio sulle illusioni cognitive delle IA – Université de Montréal
  • Rapporto OCSE sull’affidabilità dell’IA – OECD.AI

Abstract etico-sociale

Le allucinazioni dei modelli linguistici rappresentano un rischio significativo per la fiducia pubblica e l’affidabilità delle informazioni. Se da un lato la capacità di “indovinare” aumenta la fluidità della conversazione, dall’altro espone a disinformazione e bias cognitivi. La sfida etica consiste nel bilanciare accuratezza e creatività: senza un cambio di paradigma nei benchmark e nelle metriche di valutazione, il rischio è che i sistemi continuino a privilegiare la performance a scapito della veridicità, con conseguenze sociali sull’informazione, l’educazione e la democrazia.


Perché i modelli linguistici allucinano: analisi delle cause e soluzioni possibili

NEWS AIopenmind su:

3D (13)6G (25)Accademia di Comunicazione (4)Acer (1)Adobe (50)Aeronautica (11)Africa (6)Agenti AI (147)Agenti autonomi (1)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (43)AGID (1)Agricoltura (4)Amazon (74)Ambiente (5)AMD (5)America Latina (1)Android (7)Animali (7)Animazione (6)Anthropic (63)Anziani (1)App (13)Apple (90)Archeologia (3)Architettura (4)Archivi storici (1)Armi (4)Arredamento interni (2)Arte (35)Asia (1)Assistente vocale (8)Astronomia (2)Asus (2)AT&T (1)Audi (1)Audio (70)Autoapprendimento (1)Avatar (8)Aviazione (1)Avvocati (4)Aziende (27)Banca (7)Bard (3)BCE (1)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)California (5)Canva (10)Cattolicesimo (3)Certificazioni (1)Character (1)Chataudio (1)Chatbot IA (56)Chip (4)Cina (145)Cinema (16)Claude (25)Clima (6)CNR (1)Coca-Cola (2)Commercio (3)Commissione Europea (6)Compagnie aeree (1)Computer (8)Computer quantistici (57)Computer Vision (3)Comuni italiani (1)Comunicazione (10)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (2)Contabilità (2)Convegno (16)Copilot (7)Copyright (33)Corea del Nord (1)Corea del Sud (3)Criptovalute (2)Cybersecurity (50)Dalle-2 (3)Danimarca (1)Dark web (3)Data center (31)Dating (1)Deepfake (5)DeepSeek (29)Design automobilistico (3)Design Industriale (7)Diritti Autore (1)Disney (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)eBay (1)Editing fotografico (3)Editoria (17)ENEA (2)Esercito (2)etc (0)Etica (454)Europol (3)Eventi (10)Evento (9)Facebook (4)FakeNews (24)Falegnameria (1)Fauna selvatica (1)Film (7)Finanza (44)Finanziamenti Italia (4)Firefly (3)Firefox (2)Fondo Monetario Internazionale (2)Formazione (73)Fotografia (124)Francia (6)Free lance (1)Fujitsu (1)Fusione nucleare (2)G7 (1)Gaming (3)Garante privacy (21)Gelati (1)Giappone (27)Giochi (10)Giornalismo (27)Giustizia (3)Google (542)Governo (9)Governo Italiano (6)Grafica (6)Grok (16)Guerra (22)Guida autonoma (10)Hong Kong (18)Hugging Face (6)IBM (11)Illustrazioni (1)iMessage (1)Immobiliare (1)India (11)Indossabili (4)Influencer (1)Informazione (10)Inghilterra (18)INPS (2)Intel (9)Interfacce neurali (1)ISO (1)Israele (3)Istruzione (18)Jailbreaking (1)Kamala Harris (1)Lavoro (151)Libri (4)Linguistica computazionale (12)Linkedin (10)Linux (1)Luma AI (1)Luna (1)Maltrattamento infantile (1)Marina (1)Marketing (214)Medicina (38)Medio Oriente (1)Mercedes-Benz (1)Meta (160)Metaverso (17)Meteo (2)Microsoft (279)Midjourney (18)Mistral (13)Mobilità sostenibile (2)Moda (6)Modelli AI (155)Motori di Ricerca (14)Motorola (1)Mozilla (3)Museo (1)Musica (48)NASA (3)Nato (2)Natura (8)Natural Language Processing (2)Nazioni Unite (1)NBA (1)Netflix (1)Neuralink (1)NFT (3)Norvegia (1)Nvidia (118)Occhiali (8)Occhiali Intelligenti (20)Occhiali Smart (1)Oculistica (1)Odore (1)Offerte lavoro (2)OMS (1)ONU (1)Open Source (23)OpenAI (455)Opera (17)Opera Browser (1)Oppo (3)Oracle (5)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (28)Pianeta (2)PlayStation (1)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (4)Privacy (34)Programmazione (22)Prompt (5)Pubblicazione (1)Pubblicità (19)QR Code (1)Qualcomm (5)Ray-Ban (7)Realtà mista (5)Reddit (8)Relazioni internazionali (2)Relazioni Pubbliche (3)Religione (1)Report (171)Ricerca scientifica (17)Riconoscimento emotivo (1)Risorse online (100)Ristorazione (5)Robotica (129)Runway (16)Russia (3)Salute (64)Samsung (21)Sanità (21)Satelliti (5)Sceneggiatura (1)Semiconduttori (11)SEO (3)Shopping online (4)Sicurezza (37)Sicurezza informatica (93)SMS (1)Snapchat (12)Soccorso (1)Società (20)SoftBank (1)Software (5)Sony (2)Sora (1)Sport (6)Spotify (10)Stability (5)Stable Animation SDK (1)Stable Diffusion (12)Stampanti (1)Standard (5)Startup (585)streaming live (1)Supercomputer (6)Superintelligenza (3)Sviluppatori (1)Sviluppo sostenibile (1)Svizzera (1)Synthesia (1)Taiwan (27)Taxi (2)Telecomunicazioni (7)Telegram (4)Televisione (2)Tesla (10)TikTok (12)Tinder (1)Torah (1)Traduttore AI (7)Trasporti (24)Truffa (2)Twitter (13)Ucraina (3)Udito (1)UE (13)UNESCO (4)UNICEF (1)Unione Europea (57)Università (5)Uomo (1)USA (94)Vaticano (5)Video (155)Videocomunicazione (4)Videogiochi (14)Vietnam (1)Vigili del fuoco (1)Violenza domestica (1)Visualizzazione dati (1)Vodafone (2)Vogue Business - As Gen Z matures (0)Volkswagen (1)VPN (3)Website (14)WhatsApp (12)Wikimedia (1)Wikipedia (3)Wordpress (4)X (13)xAI (10)Xiaomi (1)Yahoo (3)Youtube (30)Zoom (9)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Danimarca, nuova legge contro i deepfake: copyright sull’identità per proteggere i cittadini

La Danimarca propone una legge pionieristica per vietare la condivisione di deepfake senza consenso e attribuire ai cittadini il diritto d’autore sulla propria immagine...

Quantum computing e AI: la nuova minaccia alla crittografia globale

Il quantum computing promette rivoluzioni nella potenza di calcolo, ma per la cybersecurity è un campanello d’allarme. Gli esperti avvertono: gli algoritmi crittografici oggi...

Vibe coding: come l’IA sta cambiando il modo di programmare

La parola dell’anno 2025 scelta dal Collins Dictionary è “vibe coding”: programmare affidando all’intelligenza artificiale gran parte della scrittura del codice. Una pratica che riflette un...

All Digital Weeks: L’importanza di un approccio armonizzato

REGISTRATI SU Stati Generali dell’Innovazione – SGI _____________ L’avvento dell’Intelligenza Artificiale – L’importanza di un approccio armonizzato L’avvento dell’Intelligenza Artificiale (AI) rappresenta una delle più significative rivoluzioni...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines