I sistemi di intelligenza artificiale di Google, lanciati con la funzione AI Overviews, sono stati sorpresi a dare consigli errati in ambito sanitario. Questi suggerimenti imprecisi potrebbero mettere seriamente a rischio la salute delle persone, come rivelato da un’inchiesta del Guardian. I problemi legati alle “allucinazioni” dell’IA sono evidenti, e il gigante tecnologico sta cercando di correggere il tiro.
Nel maggio 2024, Google ha introdotto una funzionalità controversa denominata AI Overviews, concepita per semplificare la ricerca di informazioni online. Tuttavia, come spesso accade con le tecnologie emergenti, i rischi sono emersi rapidamente. Le cosiddette “allucinazioni” dell’intelligenza artificiale, in cui vengono fornite informazioni erronee o fuori contesto, si sono trasformate in un pericolo tangibile, soprattutto nel campo della salute.
Un’inchiesta del Guardian ha evidenziato come le risposte generate dall’AI di Google abbiano fornito informazioni sanitarie imprecise che potrebbero essere letali per gli utenti. Un esempio riguarda i consigli dati a chi soffre di cancro al pancreas, suggerendo erroneamente di evitare cibi grassi, quando invece i medici raccomandano esattamente il contrario. Le gravi distorsioni delle informazioni su diagnosi e trattamenti possono, inoltre, indurre i pazienti a trascurare i sintomi o seguire cure dannose.
“Le persone si rivolgono a Internet nei momenti di preoccupazione e crisi”, ha sottolineato Stephanie Parker, direttrice dell’ente benefico Marie Curie, mettendo in evidenza il pericolo che le informazioni errate possano compromettere seriamente la salute dei pazienti. La funzionalità AI ha anche mostrato incoerenze nei consigli su disturbi alimentari e psicosi, creando confusione tra gli utenti, soprattutto quelli vulnerabili.
Nonostante le rassicurazioni da parte di Google, che afferma di investire nella qualità delle risposte AI, l’inchiesta del Guardian solleva forti dubbi sulla capacità del gigante tecnologico di gestire i rischi sanitari. La crescente fiducia degli utenti nelle risposte generate dall’IA (il 65% degli adulti considera le informazioni AI “affidabili”) alimenta preoccupazioni su quanto queste tecnologie possano essere dannose se non gestite correttamente.
Approfondimento:
La crescente diffusione dell’IA nel settore della salute sta sollevando preoccupazioni riguardo alla sua affidabilità. Secondo un sondaggio del MIT, le risposte errate dell’IA vengono spesso percepite come valide dagli utenti, con conseguenze potenzialmente gravi. Inoltre, la Canadian Medical Association ha denunciato i pericoli legati ai consigli medici generati da AI, sottolineando come l’uso improprio possa danneggiare la salute degli individui.
Consigli di approfondimento:
- Risultati dell’indagine Guardian sulle AI di Google
- Gli esperti sulla sicurezza dei consigli sanitari generati dall’IA
- L’approccio dell’Annenberg Public Policy Center all’affidabilità dell’IA
Abstract:
Le IA di Google, con la loro funzionalità AI Overviews, sono state sorprese a diffondere informazioni sanitarie dannose, sollevando preoccupazioni sulla sicurezza dei consigli medici generati automaticamente. Nonostante gli sforzi di Google, la fiducia crescente nelle risposte AI espone gli utenti a rischi seri, e la continua dipendenza dalla tecnologia potrebbe portare a danni irreparabili. Gli esperti consigliano di consultare sempre medici umani per evitare che i pazienti vengano indotti a fare scelte pericolose.







