OpenAI ha annunciato di aver bloccato diversi account cinesi accusati di utilizzare ChatGPT per sviluppare strumenti di sorveglianza dei social media e progetti legati al monitoraggio di minoranze etniche. L’azienda ha segnalato anche altri utilizzi illeciti della tecnologia, tra cui truffe e malware, confermando la crescente attenzione verso i rischi di abuso dell’intelligenza artificiale.
Secondo il report, un account cinese, poi bannato, avrebbe impiegato ChatGPT per progettare materiali promozionali e progetti di una “sonda” in grado di scandagliare piattaforme come X, Facebook, TikTok e YouTube alla ricerca di contenuti politici, religiosi o etnici. OpenAI ha aggiunto di non poter verificare se il progetto fosse commissionato direttamente da un ente governativo, ma ha ribadito la gravità del caso.
Un altro account aveva elaborato, sempre tramite ChatGPT, una proposta di “modello di avviso di afflusso ad alto rischio” collegato agli uiguri, minoranza musulmana perseguitata in Cina. L’uso di sistemi di AI per il tracciamento di individui solleva preoccupazioni etiche significative, in un contesto già segnato da denunce internazionali sulle violazioni dei diritti umani nello Xinjiang.
Oltre ai casi cinesi, OpenAI ha rilevato che sviluppatori in Russia, Corea e Cambogia utilizzavano il chatbot per affinare malware o creare schemi di phishing. In Nigeria e Myanmar, reti organizzate sfruttavano l’IA per truffare cittadini. Nonostante ciò, l’azienda ha sottolineato che ChatGPT viene usato tre volte più spesso per rilevare e fermare truffe che per crearle.
Il rapporto trimestrale di OpenAI sulle minacce digitali evidenzia come l’uso illecito dei modelli linguistici non sia limitato alla Cina: quest’estate, account legati a Russia, Iran e altri paesi hanno sfruttato il chatbot per alimentare campagne di disinformazione e manipolazione online.
Approfondimento e cronologia
- ONU – Rapporto 2022 su presunte violazioni dei diritti degli uiguri
- Human Rights Watch – Dossier 2023 sulla sorveglianza tecnologica in Cina
- OpenAI – Minaccia evidenziata nei report sulle attività statali da febbraio 2024 link
Consigli di lettura
- Amnesty International:Â Sorveglianza digitale e diritti umani
- MIT Technology Review:Â AI e disinformazione online
Abstract
L’interruzione degli account cinesi da parte di OpenAI mette in luce il duplice volto dell’intelligenza artificiale: da un lato strumento di innovazione, dall’altro mezzo per abusi politici e sociali. I rischi etici riguardano la privacy, il tracciamento delle minoranze e la manipolazione dell’informazione. Se non regolamentata, l’AI potrebbe diventare un pilastro di nuovi sistemi di sorveglianza globale. Una governance internazionale trasparente sarà cruciale per evitare derive autoritarie.







