Roblox apre il suo sistema AI alla comunità per contrastare gli abusi sui minori, dopo gravi accuse legali.
Roblox ha annunciato il rilascio open source di Sentinel, un sistema di intelligenza artificiale progettato per rilevare segnali di adescamento minorile nelle chat online. Il lancio avviene in un momento delicato per l’azienda, sotto accusa per presunti casi di negligenza nella tutela dei minori.
Secondo la piattaforma, Sentinel è già stato impiegato per inviare oltre 1.200 segnalazioni al National Center for Missing and Exploited Children nella prima metà del 2025. Il sistema analizza miliardi di messaggi al giorno e classifica gli utenti in base al rischio, confrontando i modelli linguistici con due indici: uno positivo (comportamenti normali) e uno negativo (conversazioni pericolose).
L’intelligenza artificiale, a differenza dei filtri tradizionali basati su singole parole, contestualizza intere conversazioni, valutando segnali che potrebbero sembrare innocui, come “Quanti anni hai?”, ma che in un contesto più ampio possono indicare un potenziale pericolo. La tecnologia monitora anche la rete sociale dell’utente, giochi frequentati e interazioni.
La decisione di rendere pubblico il codice nasce dalla volontà di promuovere la sicurezza minorile anche su altre piattaforme digitali. Tuttavia, Roblox ammette che “nessun sistema è perfetto” e riconosce la necessità di aggiornamenti continui.
Approfondimento | Cronologia dei fatti
- Luglio 2025 – Causa in Iowa per presunto rapimento dopo adescamento su Roblox.
- Gennaio-Giugno 2025 – Oltre 1.200 segnalazioni di abusi inviate al NCMEC tramite Sentinel.
- Agosto 2025 – Rilascio open source del sistema Sentinel.
Fonti affidabili:
- Roblox Trust & Safety (si apre in una nuova scheda)
- NCMEC (si apre in una nuova scheda)
Consigli di approfondimento
- Come funziona la moderazione automatica nelle piattaforme digitali
- L’uso etico dell’AI nella protezione dei minori
- Linee guida europee su AI e tutela dei minori
Abstract | Pro e rischi
Pro:
- Aumenta la capacità di prevenzione degli abusi online.
- Promuove la collaborazione interpiattaforma grazie all’open source.
- Migliora la trasparenza e il monitoraggio delle chat.
Rischi etico-sociali:
- Potenziale sorveglianza massiva e violazione della privacy.
- Rischio di falsi positivi e stigmatizzazione.
- Necessità di governance trasparente e supervisione umana.
Conseguenze future:
Potrebbe diventare un modello standard di protezione AI-based, ma richiede un equilibrio tra sicurezza e libertà digitale.







