Nel 2024, Google ha intensificato l’uso dell’IA per contrastare truffe, profili falsi e recensioni fraudolente su Maps. Grazie al supporto del modello Gemini, sono state intercettate milioni di violazioni, rafforzando l’affidabilità dei contenuti aziendali online.
Google Maps è diventato un punto di riferimento per chi cerca attività commerciali affidabili. Ma la crescente presenza di contenuti ingannevoli ha spinto l’azienda a rafforzare i sistemi di controllo, puntando su tecnologie avanzate di intelligenza artificiale.
Nel 2024, oltre 240 milioni di recensioni sono state bloccate o rimosse perché non conformi alle linee guida. Il nuovo modello basato su Gemini consente di identificare modifiche sospette nei profili aziendali: un cambiamento di categoria improvviso, come da “caffetteria” a “idraulico”, è ora segnalato automaticamente.
Oltre ai profili manipolati, l’IA ha supportato il contrasto alle recensioni a cinque stelle comprate. Google ha attivato notifiche in USA, Regno Unito e India per avvisare gli utenti in caso di rimozione di recensioni sospette. L’iniziativa sarà estesa globalmente a partire da maggio 2025.
Tra i risultati più rilevanti del 2024, anche il blocco di 70 milioni di modifiche ai luoghi su Maps e la rimozione di oltre 12 milioni di profili falsi. Inoltre, Google ha imposto restrizioni a più di 900.000 account recidivi.
Queste misure rappresentano un passo concreto nella tutela dell’affidabilità online, contrastando l’uso improprio delle piattaforme digitali da parte di attori malevoli.
Fonti
• Google – Rapporto sull’affidabilità e la sicurezza dei contenuti
• Dichiarazioni ufficiali di Ian Leader, Google
Consigli di approfondimento
• Linee guida ufficiali sulle recensioni di Google
• Approfondimento su Gemini e AI per la sicurezza online
Abstract – Pro e rischi etici e sociali
L’uso dell’IA nel monitoraggio delle informazioni aziendali migliora l’affidabilità delle piattaforme digitali, protegge gli utenti e rafforza la fiducia nel sistema. Tuttavia, permane il rischio di falsi positivi e di un’eccessiva automatizzazione dei processi di moderazione, che potrebbe penalizzare aziende legittime. L’interazione futura richiederà un equilibrio tra automazione e supervisione umana, per garantire trasparenza, equità e inclusività.
