Google ha disattivato le panoramiche basate sull’intelligenza artificiale per alcune ricerche mediche sensibili dopo che un’inchiesta del Guardian ha evidenziato risposte errate e potenzialmente pericolose. Il caso riaccende il dibattito su affidabilità, responsabilità e sicurezza dell’AI applicata alla salute.
L’inchiesta pubblicata dal Guardian all’inizio di gennaio ha mostrato come le “AI Overviews” di Google abbiano fornito informazioni fuorvianti su patologie gravi. In un caso definito da esperti “davvero pericoloso”, il motore di ricerca consigliava alle persone con tumore al pancreas di evitare cibi grassi, un’indicazione opposta alle linee guida cliniche, con il rischio di aggravare la malnutrizione e aumentare la mortalità. In un altro esempio, le panoramiche AI restituivano dati errati sugli esami della funzionalità epatica, inducendo potenzialmente pazienti con malattie serie a ritenersi in buona salute.
Dopo la pubblicazione dell’inchiesta, le panoramiche AI per query come “qual è il range normale per gli esami del sangue del fegato?” risultano ora disattivate. Google ha rifiutato di commentare nello specifico la rimozione, ma un portavoce ha dichiarato a The Verge che l’azienda “investe in modo significativo nella qualità delle panoramiche basate sull’intelligenza artificiale, in particolare per argomenti come la salute”, sostenendo che nella maggior parte dei casi le informazioni siano accurate e supportate da fonti autorevoli.
Non è la prima controversia legata alla funzionalità. In passato, le panoramiche AI sono finite al centro di critiche e cause legali per suggerimenti palesemente errati, come l’invito a “mettere la colla sulla pizza” o a “mangiare sassi”. Il caso sanitario, tuttavia, solleva questioni etiche più profonde: l’uso di sistemi generativi in ambiti ad alto rischio senza un chiaro controllo umano può avere conseguenze dirette sulla salute pubblica.
La decisione di disattivare temporaneamente alcune risposte automatiche segnala un riconoscimento implicito dei limiti attuali dell’AI generativa in campo medico e rafforza la richiesta, da parte di esperti e regolatori, di standard più stringenti per l’uso dell’intelligenza artificiale in contesti clinici e informativi sensibili.
Approfondimento e cronologia essenziale
- Gennaio 2026 – Inchiesta del Guardian sulle risposte mediche errate delle AI Overviews di Google
https://www.theguardian.com - Gennaio 2026 – Commento ufficiale di Google a The Verge
https://www.theverge.com - 2024–2025 – Linee guida OMS sull’uso responsabile dell’AI in sanità
https://www.who.int - UE – AI Act e classificazione dei sistemi ad “alto rischio”
https://artificial-intelligence-act.eu
Consigli di approfondimento
- OMS, Ethics and governance of artificial intelligence for health
https://www.who.int - Commissione europea, AI Act – High-risk AI systems
https://digital-strategy.ec.europa.eu
Abstract – Pro, rischi e implicazioni future
Pro: accesso rapido alle informazioni, supporto alla divulgazione scientifica, potenziale riduzione delle asimmetrie informative.
Rischi: disinformazione sanitaria, perdita di fiducia nei sistemi digitali, decisioni cliniche errate, responsabilità poco chiare.
Implicazioni future: senza controlli umani rigorosi e standard certificati, l’uso dell’AI generativa in sanità rischia di amplificare danni sociali ed etici, spingendo governi e piattaforme verso una regolazione più restrittiva e modelli di supervisione obbligatoria.







