Dopo la sparatoria di massa a Bondi Beach, in Australia, il chatbot Grok di xAI è stato accusato di aver diffuso informazioni false su fatti e protagonisti dell’attacco. L’episodio riapre il dibattito sui limiti dell’intelligenza artificiale nella gestione di eventi in tempo reale e sui rischi per l’informazione pubblica.
L’intelligenza artificiale Grok, sviluppata da xAI e integrata nella piattaforma X, è finita sotto osservazione internazionale per una serie di errori gravi seguiti alla sparatoria di Bondi Beach. Secondo ricostruzioni giornalistiche e conferme delle autorità australiane, il sistema ha fornito risposte errate su elementi chiave dell’attacco, contribuendo a confusione e disinformazione online.
In particolare, Grok ha più volte identificato in modo scorretto Ahmed al Ahmed, il 43enne che – come confermato da Reuters e dalla polizia del New South Wales – ha disarmato l’aggressore, evitando ulteriori vittime. In alcune risposte, l’IA lo ha descritto come un ostaggio di Hamas, in altre come una persona inesistente, attribuendogli il nome fittizio di “Edward Crabtree”. Ancora più problematico, il chatbot ha messo in dubbio l’autenticità di video e immagini verificate, arrivando a definirle “clip virali non correlate” o persino a ricondurle a eventi meteorologici.
Le criticità non si fermano agli errori di identificazione. Diversi media hanno segnalato che Grok ha ripreso e amplificato contenuti provenienti da siti falsi o post manipolati, mostrando una scarsa capacità di distinguere tra fonti affidabili e disinformazione. Un comportamento che, in contesti di emergenza, può aggravare il panico sociale e minare la fiducia nelle piattaforme digitali.
Il caso Bondi Beach evidenzia un problema strutturale: le IA generative, se utilizzate come strumenti informativi in tempo reale, rischiano di amplificare errori già presenti nell’ecosistema digitale. Senza adeguati meccanismi di verifica, supervisione umana e responsabilità editoriale, questi sistemi possono trasformarsi da supporti informativi a moltiplicatori di disinformazione.
Approfondimento – Cronologia e contesto
- Aprile 2024: sparatoria a Bondi Beach; Ahmed al Ahmed disarma l’aggressore (Reuters, autorità NSW).
https://www.reuters.com - Dicembre 2025: emergono segnalazioni sugli errori di Grok nelle risposte sull’evento (The Verge).
https://www.theverge.com - Dicembre 2025: media italiani rilanciano il caso, sottolineando i rischi informativi (la Repubblica).
https://www.repubblica.it
Consigli di approfondimento
- Analisi sulla disinformazione automatizzata e IA: https://www.weforum.org
- Linee guida UE su IA e informazione affidabile: https://digital-strategy.ec.europa.eu
Abstract: pro, rischi e implicazioni sociali
Le IA come Grok offrono rapidità e accesso immediato alle informazioni, ma il caso Bondi Beach mostra rischi etici e sociali rilevanti: errori, bias e amplificazione di fake news. Senza governance, trasparenza e controllo umano, l’uso dell’IA nell’informazione può compromettere la fiducia pubblica e accentuare tensioni sociali. In futuro, saranno decisive regole chiare e responsabilità condivise tra sviluppatori e piattaforme.







