Un semplice post online può alterare le risposte di ChatGPT e Google AI. Un’inchiesta della BBC mostra come i chatbot possano essere indotti a diffondere informazioni false, con rischi concreti per salute, finanza e reputazione. Le aziende promettono correttivi, ma il problema resta aperto.
Un articolo pubblicato il 18 febbraio 2026 dal giornalista della BBC Thomas Germain dimostra quanto sia semplice manipolare le risposte dei principali chatbot. In meno di 24 ore, un post ironico pubblicato su un sito personale – privo di fonti e basato su un evento inesistente – è stato ripreso da OpenAI tramite ChatGPT e dagli strumenti AI di Google, inclusi Gemini e AI Overviews.
Il meccanismo sfrutta una vulnerabilità nota: quando i modelli linguistici non dispongono di dati interni aggiornati, interrogano il web. In presenza di contenuti ben strutturati e indicizzati, i sistemi possono considerarli attendibili anche se infondati. Secondo Google, i propri sistemi mantengono i risultati “privi di spam al 99%”, ma riconosce tentativi di manipolazione in crescita. OpenAI dichiara di adottare contromisure e di segnalare che i propri strumenti “possono commettere errori”.
Il fenomeno, spiegano esperti SEO come Lily Ray (Amsive), ricorda “una rinascita dello spam”. Cooper Quintin della Electronic Frontier Foundation avverte che tali pratiche potrebbero facilitare truffe, diffamazione o disinformazione sanitaria.
Uno studio citato dalla BBC evidenzia che la presenza di una panoramica AI in cima alla ricerca riduce del 58% la probabilità che l’utente clicchi su un link, limitando il controllo critico delle fonti.
Il rischio è sistemico: salute, investimenti, voto e reputazione possono essere influenzati da contenuti artificialmente promossi. Le aziende tecnologiche affermano di lavorare a filtri più sofisticati e maggiore trasparenza sulle fonti.
Approfondimento – Cronologia e contesto
- 2023: Lancio di AI Overviews nella Ricerca Google – Fonte: Google Blog
- 2024-2025: Crescente integrazione di ricerca web nei chatbot – Fonte: OpenAI System Card
- 18 febbraio 2026: Inchiesta BBC su manipolazione SEO dei chatbot – Fonte: BBC
Fonti ufficiali:
- BBC: https://www.bbc.com
- Google Search Central Blog: https://developers.google.com/search/blog
- Electronic Frontier Foundation: https://www.eff.org
Consigli di approfondimento:
- Report EFF su disinformazione online
- Linee guida Google su spam e ranking
- Documentazione OpenAI sulla sicurezza dei modelli
Abstract – Pro e rischi etico-sociali
L’integrazione tra AI e motori di ricerca migliora accessibilità e rapidità dell’informazione (Pro). Tuttavia, la vulnerabilità a manipolazioni SEO e contenuti sponsorizzati opachi espone a rischi di disinformazione, danni economici e sanitari (Rischi). Senza trasparenza sulle fonti e sistemi di verifica robusti, l’autorevolezza percepita dei chatbot potrebbe amplificare contenuti distorti, con possibili effetti sistemici su fiducia pubblica e processi democratici.







