La rivoluzione di ChatGPT ha innescato in Cina una corsa senza precedenti allo sviluppo di modelli di intelligenza artificiale generativa. Grandi aziende tecnologiche, startup e istituti di ricerca cinesi stanno creando chatbot avanzati per uso generale e modelli specializzati in campi come medicina, diritto e ricerca scientifica. Questi sistemi alternativi a ChatGPT mirano sia a colmare il vuoto lasciato dal blocco di ChatGPT in Cina, sia a competere a livello globale grazie a innovazioni tecniche, potenza linguistica in cinese e allineamento con il contesto locale. Di seguito una panoramica dei principali modelli IA cinesi, le loro caratteristiche, i punti di forza rispetto a ChatGPT e le sfide etiche e di sicurezza che pongono.
I chatbot generativi cinesi: da Ernie Bot a Spark
Conferenza mondiale sull’IA a Shanghai (WAIC 2021). La Cina investe in eventi e sviluppo per diventare leader nell’intelligenza artificiale.
In assenza di ChatGPT (ufficialmente non disponibile oltre la Grande Muraglia), la Cina ha lanciato numerosi chatbot IA generali in stile ChatGPT. Tra i pionieri vi è ERNIE Bot di Baidu (nome cinese Wenxin Yiyan), presentato a marzo 2023 come primo rivale locale di ChatGPT. Basato sui modelli ERNIE di Baidu (Enhanced Representation through Knowledge Integration), ERNIE Bot è un LLM knowledge-enhanced integrato nell’ecosistema Baidu e addestrato con enormi dataset cinesi. In test condotti dal think-tank Xinhua Institute, Ernie Bot è risultato il migliore tra i chatbot cinesi (superando Alibaba e iFlytek), seppur ancora inferiore a GPT-3.5 e GPT-4 di OpenAI. Baidu afferma che la versione Ernie 3.5 rivaleggia con GPT-4 in diverse capacità del linguaggio cinese, e su benchmark nazionali come SuperCLUE il modello si posiziona appena dietro GPT-4 ma sopra GPT-3.5. Ernie Bot è stato uno dei primi ad ottenere l’autorizzazione governativa per il pubblico a fine agosto 2023, diventando rapidamente l’app gratuita più scaricata in Cina.
Accanto a Baidu, Alibaba ha introdotto il suo modello Tongyi Qianwen (lett. “risposta a mille domande”) nell’aprile 2023. Sviluppato dal consorzio di ricerca DAMO Academy, Tongyi è la base per chatbot e servizi cloud di Alibaba: è un modello generalista capace di gestire richieste complesse in vari domini, dal linguaggio naturale alle immagini, con l’obiettivo dichiarato di raggiungere un’intelligenza generale vicina a quella umana. Alibaba vede Tongyi come il fulcro di una piattaforma unificata di modelli IA (linguistici, vocali, multimodali) da offrire alle imprese.
Un altro attore chiave è iFlytek, azienda nota per il riconoscimento vocale, che ha lanciato il modello Spark (Xinghuo) per dialoghi in cinese. Spark (o SparkDesk) è stato testato anch’esso dall’istituto Xinhua, classificandosi immediatamente dietro i chatbot di Baidu e Alibaba. iFlytek continua ad aggiornare Spark e nel 2023 ha affermato che le versioni più recenti (Spark 3.0 e 4.0) hanno colmato il divario con GPT-4 in diverse prove, ad esempio nella comprensione del cinese e nella risoluzione di problemi matematici (dati dichiarati dall’azienda).
Sul fronte dei giganti tech, Tencent ha rilasciato a settembre 2023 il suo modello Hunyuan (混元) come fondazione per applicazioni conversazionali e servizi enterprise. Hunyuan è un LLM polivalente con oltre 100 miliardi di parametri, addestrato su più di 2 trilioni di token. Tencent sostiene che il modello, bilingue in cinese e inglese, superi ChatGPT in alcuni compiti specifici (come la stesura di testi molto lunghi o la soluzione di problemi matematici) e abbia un tasso di hallucination inferiore del 30% rispetto a Llama 2. Tali affermazioni non sono state verificate indipendentemente, ma indicano l’aggressiva ottimizzazione settoriale: Hunyuan è già integrato in oltre 50 prodotti Tencent (dalla messaggistica WeChat ai videogiochi) e offerto come servizio per aziende.
Anche SenseTime, leader in visione artificiale, è entrata nella gara con SenseChat, parte del suo sistema SenseNova. SenseChat è un chatbot alimentato da modelli NLP di centinaia di miliardi di parametri, lanciato nel 2023 sulla potente infrastruttura di calcolo SenseCore (27.000 GPU). Dopo l’ok delle autorità cinesi, SenseChat è ora disponibile al pubblico insieme a Ernie Bot. SenseTime punta sulla multimodalità: SenseNova include anche modelli aperti di generazione immagini e riconoscimento video, segno che i player cinesi vogliono competere a tutto campo nell’AI generativa.
Tra i modelli open source spiccano quelli sviluppati da spin-off universitari e startup. Zhipu AI, nata da un team della Tsinghua University, ha open-sourcizzato ChatGLM, un modello bilingue (cinese-inglese) pubblicato in versione 6B parametri e poi evoluto. ChatGLM e successori mirano a fornire una base open su cui la comunità può costruire applicazioni conversazionali senza vincoli proprietari. Un’altra startup, Baichuan Intelligent Technology (fondata dall’ex CEO di Sogou), ha rilasciato modelli open da 7 e 13 miliardi di parametri e figura tra le prime ad aver ottenuto il via libera statale per test pubblici. Ma il caso più clamoroso del 2024 è DeepSeek AI, un piccolo laboratorio cinese che ha lanciato l’omonimo chatbot in versione open source con prestazioni sorprendenti. DeepSeek, guidato dall’ingegnere Liang Wenfeng, sostiene di aver sviluppato un modello avanzato con risorse limitate, usando meno chip e meno dati rispetto ai rivali. In poche settimane, la versione DeepSeek R-1 è balzata in cima alle classifiche di download gratuiti degli app store, persino superando ChatGPT in Cina e negli USA. Il successivo DeepSeek V3, realizzato in soli due mesi con circa 6 milioni di dollari, ha mostrato però prestazioni ancora acerbe su alcune domande, segno che rimane del lavoro da fare. Resta il fatto che DeepSeek è gratuito, open source e accessibile a chiunque, come sottolinea il suo fondatore, il quale vede nell’open source un modo per rompere il monopolio delle Big Tech. Questo approccio “dal basso” ha messo in allarme i colossi occidentali: OpenAI ha persino accusato DeepSeek di aver distillato conoscenza dai suoi modelli in violazione di proprietà intellettuale (un’ipotesi ancora da provare). L’app DeepSeek, intanto, ha attirato l’attenzione anche dei regolatori europei: il Garante Privacy italiano ne ha bloccato la diffusione chiedendo chiarimenti sulla raccolta e conservazione dei dati personali degli utenti.
Modelli IA “made in China” per medicina, diritto e ricerca
Oltre ai chatbot generalisti, la Cina sta sviluppando modelli IA specializzati in settori chiave, sfruttando enormi basi di conoscenza settoriali e la disponibilità di dati locali. L’obiettivo è applicare l’IA generativa in ambiti professionali – dalla sala operatoria all’aula di tribunale – migliorando produttività e decisioni, ma anche affermare la sovranità tecnologica in campi strategici come la ricerca medica e scientifica.
In campo medico
In ambito sanitario, i ricercatori cinesi stanno adattando i modelli linguistici per supportare medici e pazienti. Un caso emblematico è AI TaiChu, un modello IA per la neurochirurgia presentato nel 2024 da un’agenzia dell’Accademia Cinese delle Scienze con sede a Hong Kong. TaiChu – il cui nome significa “Inizio Primordiale” – si basa sull’architettura open Llama 2 di Meta e viene potenziato con conoscenze mediche specifiche: milioni di documenti clinici, articoli scientifici e manuali chirurgici sono stati utilizzati per addestrarlo a fungere da “consulente” per i chirurghi. Il modello assiste i medici nell’interpretare esami diagnostici (risonanze, ecografie, TAC) e nel fornire second opinion rapide e dettagliate, affiancandoli in diagnosi e decisioni terapeutiche. Sette grandi ospedali cinesi hanno iniziato a testare TaiChu come assistente in neurochirurgia, con l’approvazione delle autorità sanitarie. Questo traguardo fa parte di un progetto più ampio per sviluppare un’IA medica avanzata “in grado di competere con ChatGPT” nei consulti professionali.
Naturalmente non mancano gli ostacoli tecnici. Gli sviluppatori di TaiChu segnalano ad esempio limiti di potenza di calcolo: il modello non può accedere ai chip Nvidia più avanzati a causa delle restrizioni USA all’export di tecnologie, e deve accontentarsi di GPU meno performanti. Per compensare, la strategia cinese punta sull’enorme quantità di dati clinici disponibili: le cartelle mediche provenienti da ospedali di tutto il Paese forniscono un training set ricchissimo, confidando che la abbondanza di dati possa in parte supplire a hardware meno potente. In prospettiva, modelli come TaiChu potrebbero rivoluzionare la pratica medica quotidiana, aiutando nell’analisi diagnostica e nel monitoraggio dei pazienti, purché rimangano strumenti al servizio del medico e non sostituti – come ricordano gli esperti di etica sanitaria.
Oltre a TaiChu, praticamente ogni grande azienda tech cinese sta esplorando applicazioni mediche delle LLM. Huawei, ad esempio, ha sviluppato vari modelli della serie Pangu dedicati alle bioscienze: Pangu Drug per scoprire nuovi farmaci e Pangu Medical per supportare la diagnosi, addestrati su decine di milioni di pubblicazioni mediche. Baidu e Tencent stanno affinando versioni dei loro chatbot per fornire consigli sanitari e rispondere a sintomi (con le dovute cautele), mentre startup specializzate puntano a far superare ai modelli gli esami di abilitazione medica. L’ambizione è avere in futuro un “ChatMedico” cinese in grado di affiancare dottori e infermieri, riducendo gli errori e migliorando l’accesso alle cure nelle aree meno servite.
Applicazioni nell’ambito legale
Anche il settore giuridico cinese è terreno di sperimentazione per l’IA avanzata. Da un lato, ricercatori e aziende hanno iniziato a tarare LLM sulle leggi cinesi, dall’altro le stesse istituzioni giudiziarie testano strumenti IA per snellire il lavoro di giudici e procuratori.
Sul fronte della ricerca, un esempio all’avanguardia è InternLM-Law, un modello open source specializzato in diritto cinese. Descritto in uno studio del 2024, InternLM-Law è stato addestrato su oltre 1 milione di query giuridiche, comprendendo leggi, sentenze e manuali giuridici cinesi arxiv.org. Adotta un training in due fasi: prima una messa a punto su vasta conoscenza generale e legale, poi un fine-tuning mirato su dati legali di alta qualità. Il risultato è un LLM giuridico capace di rispondere a quesiti normativi, redigere bozze di atti e analizzare casi complessi. Nei test, InternLM-Law ha ottenuto risultati eccellenti sul benchmark LawBench, superando i modelli più avanzati (incluso GPT-4) in 13 su 20 compiti specifici. Si tratta di un segnale importante: con adeguata specializzazione, i modelli cinesi possono eccellere in nicchie dove ChatGPT (generalista) mostra lacune.
Parallelamente, la giustizia cinese sperimenta già da anni sistemi di IA per aumentare l’efficienza. Il cosiddetto “giudice robot” non è più solo fantascienza: la Procura Popolare di Shanghai Pudong ha sviluppato un algoritmo in grado di formulare capi d’accusa automaticamente, con un’accuratezza dichiarata del 97%. Questo “procuratore virtuale”, attivo in via sperimentale dal 2022, analizza i rapporti di polizia caricati dagli umani e riesce a inquadrare autonomamente reati tra gli otto più comuni (fra cui frodi con carta di credito, guida pericolosa, furto, ecc.) valutando le prove e la pericolosità sociale del sospetto. L’IA, integrata nel sistema denominato System 206, nasce per velocizzare il lavoro delle procure oberate di casi. Le autorità cinesi sottolineano che per ora lo strumento affianca i pubblici ministeri senza rimpiazzarli, ma il confine tra supporto e automazione decisionale si assottiglia. Questo solleva questioni etiche e giuridiche: la magistratura cinese stessa dibatte sulla trasparenza degli algoritmi e sui rischi di delegare all’IA poteri decisionali così delicati. Da un lato un modello può commettere errori o bias (con gravi conseguenze sulla vita delle persone), dall’altro c’è il timore che il governo possa indirizzare la “mano” dell’IA per perseguire certi reati o dissidenti politici. Nonostante questi dilemmi, la spinta a informatizzare la giustizia è forte: dalla catalogazione di precedenti giurisprudenziali, alla traduzione automatica di testi legali, fino a chatbot per orientare i cittadini tra le procedure, l’IA legale cinese è in rapida evoluzione.
AI per la ricerca scientifica e industria
La corsa all’IA in Cina si estende anche al campo scientifico e industriale, con modelli addestrati su dati tecnici per risolvere problemi specifici. Un risultato di rilievo è venuto dalla meteorologia: il modello Pangu-Weather sviluppato dai ricercatori di Huawei Cloud è stato il primo sistema IA a superare i tradizionali metodi numerici nelle previsioni del tempo. Addestrato su 43 anni di dati climatici, Pangu-Weather utilizza reti neurali 3D per modellare l’atmosfera e può elaborare previsioni globali in pochi secondi, con una precisione maggiore dei modelli fisici usati finora. Questo lavoro, pubblicato nel 2023 sulla prestigiosa rivista Nature, dimostra come i modelli cinesi di nuova generazione stiano contribuendo al progresso scientifico internazionale. Nel settore energetico, altri modelli Pangu sono impiegati per analisi predittive (es. rilevamento guasti in reti elettriche), mentre industrie manifatturiere e automobilistiche cinesi utilizzano LLM personalizzati per ottimizzare linee di montaggio, progettare componenti o potenziare i sistemi di guida autonoma.
Anche la comunità accademica sta adottando modelli linguistici per accelerare la ricerca scientifica. Strumenti simili a ChatGPT vengono usati per riassumere articoli, generare ipotesi sperimentali o persino scrivere parti di paper (non senza polemiche). Università come Fudan hanno creato prototipi di chatbot (MOSS è stato il primo, nel 2023, ad avvicinarsi alle capacità di ChatGPT in Cina) con l’intento di fornire assistenti virtuali a ricercatori e studenti. Il governo cinese incoraggia queste applicazioni, vedendo nell’IA un moltiplicatore per il proprio output scientifico e tecnologico. L’idea di fondo è che modelli addestrati su big data cinesi – da database genomici a brevetti industriali – possano scoprire correlazioni e soluzioni nuove, aiutando la Cina a competere ai vertici dell’innovazione.
La spinta governativa e il contesto tecnologico
L’ascesa dei modelli IA cinesi non avviene in un vuoto, ma è fortemente plasmata dal contesto politico e normativo del Paese. Negli ultimi anni Pechino ha più volte dichiarato strategica la leadership nell’intelligenza artificiale, fissando l’obiettivo di diventare il leader globale del settore entro il 2030. Per raggiungerlo, il governo ha mobilitato investimenti massicci e ha creato un ecosistema regolamentato in cui le aziende possono innovare, ma entro paletti ben definiti.
Un elemento chiave è la regolamentazione dei chatbot generativi. A differenza di molti Paesi occidentali, la Cina richiede per legge che le società tech ottengano un’approvazione governativa prima di lanciare servizi di AI generativa al pubblico. Questa policy, formalizzata con regole ad hoc entrate in vigore a metà agosto 2023, mira a garantire che i modelli rispettino la sicurezza e i valori sociali cinesi. Nei primi mesi del 2023 le aziende potevano condurre solo test limitati su invito; dopo le nuove norme, c’è stata un’accelerazione di release pubbliche in quanto i prodotti conformi hanno ricevuto luce verde. Il 31 agosto 2023 Baidu, SenseTime e altre società hanno annunciato l’apertura dei loro chatbot a tutti gli utenti, seguiti a ruota da startup come Baichuan, Zhipu e MiniMax. Entro aprile 2024, le autorità cinesi avevano già approvato 117 modelli IA di grandi dimensioni per il dispiegamento pubblico o commerciale reuters.com. Questo processo di certificazione preventiva garantisce a Pechino un controllo diretto sul contenuto e sul comportamento dei chatbot: chi sgarra rischia il ritiro dell’autorizzazione.
La competizione tecnologica con gli Stati Uniti è un altro fattore cruciale. Il successo planetario di ChatGPT ha fatto scattare un campanello d’allarme in Cina, alimentando timori di ritrovarsi dipendenti da algoritmi stranieri. Il presidente Xi Jinping ha inserito l’AI tra le aree in cui «la Cina deve competere con gli USA» e ha spinto campioni nazionali come Baidu, Alibaba, Tencent a colmare rapidamente il gap. Ciò ha scatenato quella che in Cina chiamano la “guerra dei cento modelli”: già a metà 2023 si contavano oltre 130 modelli linguistici cinesi e decine di nuovi progetti in cantiere. Questo proliferare ricorda l’epoca d’oro di Internet in Cina, con tante soluzioni simili che nascono contemporaneamente prima che il mercato selezioni i vincitori. Per le Big Tech cinesi, arrivare per primi sul mercato interno è vitale in un settore così “brucia e consuma”: Baidu, anticipando i concorrenti, ha guadagnato milioni di feedback dagli utenti cinesi su Ernie Bot dopo il lancio pubblico, rafforzando il modello con dati locali prima che altri potessero fare altrettanto.
Dall’altro lato, la competizione è frenata dalle sanzioni e limitazioni tecnologiche internazionali. Il divieto USA di esportare chip AI avanzati (come le GPU Nvidia A100) verso la Cina ha imposto dei limiti hardware non trascurabili allo sviluppo di LLM cinesi. Le aziende cinesi hanno risposto ingegnandosi: da un lato accumulando scorte di chip prima del ban, dall’altro ottimizzando i modelli per girare su hardware meno potente (si pensi a DeepSeek, progettato per funzionare con GPU economiche). Inoltre, la Cina sta accelerando sulla produzione nazionale di semiconduttori per l’IA, per ridurre la dipendenza dalle tecnologie americane. In parallelo, il Grande Firewall e l’ecosistema digitale separato significano che i modelli cinesi possono attingere a quantità immense di dati locali (social media, forum, documenti statali) inaccessibili ai competitor occidentali, ma devono anche fare i conti con una censura pervasiva su molti contenuti.
Punti di forza dei modelli cinesi rispetto a ChatGPT
Sebbene ChatGPT di OpenAI rimanga il riferimento globale, i modelli cinesi stanno evidenziando alcuni punti di forza peculiari che li rendono competitivi, specialmente nel contesto domestico. Ecco i principali vantaggi emersi:
- Padronanza del cinese e cultura locale: I chatbot cinesi sono addestrati su corpora estesi in lingua cinese, che includono slang, riferimenti culturali, letteratura e contesto locale. Questo li rende spesso più precisi e naturali nel rispondere in cinese rispetto a ChatGPT. Ad esempio, Baidu ha mostrato che Ernie eccelle nella generazione di poesie classiche cinesi e testi formali, superando GPT-4 in questi ambiti specifici. Allo stesso modo, modelli come Tongyi e Spark sono progettati per capire le sfumature del linguaggio e della società cinese (es. festività, proverbi) dove un modello occidentale potrebbe inciampare o fornire risposte poco pertinenti.
- Specializzazione settoriale: Una strategia vincente della Cina è sviluppare LLM dedicati a domini specifici. Come visto, InternLM-Law surclassa GPT-4 su problemi di diritto cinese grazie al suo training mirato. Analogamente, modelli medici come TaiChu o Pangu Medical, addestrati su dati clinici locali, possono fornire consigli più aggiornati sulla prassi sanitaria cinese di quanto farebbe ChatGPT. Questa verticalizzazione permette prestazioni superiori al modello generalista di OpenAI in compiti specialistici – un approccio modulare che potrebbe essere esteso ad altri settori (finanza, ingegneria, ecc.).
- Integrazione nell’ecosistema digitale cinese: I campioni nazionali (Baidu, Tencent, Alibaba) possono integrare i loro modelli IA nei servizi digitali usati quotidianamente da centinaia di milioni di cinesi – motori di ricerca, e-commerce, super-app. Ad esempio, Ernie Bot è integrato in Baidu con funzionalità di ricerca e potrebbe attingere al knowledge graph dell’azienda durante le chat. Tencent può innestare Hunyuan dentro WeChat, QQ o i suoi giochi, offrendo assistenti virtuali dove gli utenti già sono. Questa sinergia con piattaforme esistenti è un vantaggio rispetto a ChatGPT, che in Cina non ha canali ufficiali (spingendo gli utenti a VPN o app non autorizzate). Inoltre, i modelli cinesi possono sfruttare dati in tempo reale dal loro ecosistema (ad es. trend di Weibo o dati di Alibaba) per fornire risposte aggiornate e contestuali, creando un’esperienza utente più ricca localmente.
- Costo inferiore e approccio open source: Alcuni progetti cinesi stanno dimostrando che è possibile creare LLM efficaci con risorse più contenute rispetto ai giganti americani. DeepSeek ne è l’emblema: costruito con pochi milioni di dollari, ha raggiunto rapidamente milioni di utenti. Il suo codice aperto consente a sviluppatori di tutto il mondo di utilizzarlo e migliorarlo, in contrasto con il modello chiuso di ChatGPT. Questa apertura può accelerare l’innovazione (ricercatori cinesi ed europei possono ispezionare e modificare il modello) e aumentare la fiducia, visto che è possibile verificare come l’IA è stata addestrata e come tratta i dati. La cultura open source promossa da startup come Zhipu e dagli ingegneri cinesi sta creando un ecosistema collaborativo che potrebbe sfornare rapidamente alternative competitive, mentre OpenAI viene criticata per l’opacità dei suoi ultimi modelli. Inoltre, poter distribuire gratuitamente un chatbot come DeepSeek costituisce un vantaggio strategico: favorisce una diffusione di massa e mette pressione commerciale sui concorrenti a pagamento (ChatGPT Plus, Bing Chat Enterprise, ecc.), contribuendo a democratizzare l’accesso all’IA.
- Allineamento alle normative locali: Per utenti e aziende cinesi, i modelli domestici offrono anche la tranquillità di essere conformi alle leggi e ai valori nazionali fin dalla progettazione. ChatGPT, qualora accessibile in Cina, potrebbe fornire risposte considerate inaccettabili dal governo su temi politici o sociali sensibili. I chatbot cinesi invece sono calibrati per evitare argomenti proibiti o trattarli nella cornice approvata. Ad esempio, DeepSeek invita a “cambiare argomento” se interrogato sul presidente Xi Jinping, mentre risponde senza problemi su figure occidentali. Questo filtraggio, se da un lato è visto come censura, dall’altro lato viene presentato come un’adesione ai “valori socialisti” e un meccanismo di sicurezza per prevenire disinformazione o discorsi d’odio. Dal punto di vista di un’azienda cinese, utilizzare un modello allineato riduce il rischio di sanzioni o blocchi da parte delle autorità. In un certo senso, si potrebbe dire che i modelli cinesi hanno un “vantaggio di compliance” nel mercato interno rispetto a ChatGPT.
Ovviamente, molti di questi punti di forza valgono soprattutto nel contesto cinese o in lingue specifiche, mentre a livello globale i modelli occidentali (GPT-4, Claude 2, ecc.) mantengono un vantaggio in diversi ambiti generali. Tuttavia, il gap si sta riducendo, e in alcune nicchie o metriche particolari le IA cinesi iniziano a primeggiare.
Sfide etiche, sicurezza e trasparenza
Il rapido dispiegamento di potenti modelli di IA in Cina solleva inevitabilmente importanti questioni etiche e di sicurezza, che riguardano sia gli aspetti intrinseci dei modelli sia il contesto sociopolitico in cui operano.
Censura e libertà di informazione: Come accennato, i chatbot cinesi sono soggetti a stringenti controlli sui contenuti. Termini politicamente sensibili, critiche al governo, discussioni su Hong Kong, Taiwan o Tiananmen vengono eluse o filtrate dai modelli (con risposte vaghe o rifiuti). Questo garantisce conformità alle leggi locali, ma pone dilemmi etici: l’IA cinese rischia di diventare un megafono della propaganda di Stato, restituendo solo verità “approvate” agli utenti su certi argomenti. La vicenda di DeepSeek è illuminante: i giornalisti hanno scoperto che il chatbot evitava di parlare di Xi Jinping ma forniva dettagli su Donald Trump, sebbene aggiornati solo fino al 2021. Ciò indica una programmazione intenzionale per rispettare le linee rosse del Partito. Per gli utenti cinesi, abituati alla censura umana sul web, questa potrebbe essere una limitazione accettata; ma sul piano della trasparenza dell’algoritmo, significa che esistono blacklist e bias incorporati non dichiarati apertamente. Le aziende non rivelano esattamente quali istruzioni di censura vengano inserite nel fine-tuning, e questo opacizza la fiducia nei modelli. Un utente potrebbe chiedersi: la risposta che sto leggendo è frutto di un’analisi neutra dell’IA o di una manipolazione politica?
Allineamento e bias etici: Anche al di fuori della sfera politica, restano le sfide classiche dell’AI generativa: assicurare che i modelli non producano contenuti tossici, discriminatori o falsi (hallucinations). I modelli cinesi sono allenati a rifiutare richieste illegali o immorali, in linea tanto con le normative (che vietano promozione di violenza, pornografia, ecc.) quanto con la necessità di evitare figuracce pubbliche. Tuttavia, come dimostrato da test indipendenti, nessun LLM è infallibile. Hunyuan di Tencent, pur dichiarando meno allucinazioni di Llama-2, non può garantire accuratezza al 100%. Ciò è critico soprattutto nelle applicazioni mediche e legali: una diagnosi sbagliata o un consiglio giuridico errato da parte dell’IA può avere gravi conseguenze reali. I promotori di TaiChu hanno sottolineato che il medico umano deve rimanere al centro e validare le indicazioni dell’AI, sia per responsabilità sia per deontologiat. Similmente, i giudici cinesi avvertono che un procuratore-robot con il 97% di accuratezza implica comunque un 3% di errore – percentuale inaccettabile se si traducesse in accuse ingiuste. La sorveglianza umana sull’operato dell’IA è dunque un requisito etico imprescindibile, ma difficile da normare: chi controlla l’algoritmo? e con quali competenze?
Privacy e utilizzo dei dati: I modelli generativi apprendono da quantità gigantesche di dati, molti dei quali sensibili. In Cina il confine sulla privacy è sfumato: i dataset di addestramento possono includere conversazioni social, documenti pubblici e altro. Le autorità hanno imposto che gli utenti siano informati delle policy e diano consenso all’uso dei loro input per il miglioramento del servizio. Tuttavia, permangono timori che le chat degli utenti con questi modelli possano essere tracciate o archiviate su server controllati da aziende (o potenzialmente accessibili dal governo). Il Garante italiano, nel bloccare DeepSeek, ha proprio chiesto chiarimenti su quali dati raccoglie la startup, da quali fonti, per quali finalità e se vengono conservati su server in Cina. La mancata trasparenza su questi aspetti è un problema globale (anche OpenAI è stata criticata per opacità sulla gestione dei dati degli utenti), ma nel caso cinese si aggiunge la preoccupazione di sorveglianza di Stato. Un cittadino potrebbe esitare a confidare informazioni personali o opinioni politiche a un chatbot sapendo che i suoi dati potrebbero essere analizzati da enti governativi in nome della “sicurezza nazionale”.
Trasparenza degli algoritmi: Una nota positiva è che una parte dell’ecosistema IA cinese abbraccia l’open source, il che aumenta la trasparenza. Modelli come ChatGLM o InternLM-Law rendono pubblici i pesi o almeno il codice, permettendo a chiunque di ispezionarli e valutare come sono stati costruiti. Ciò può aiutare a identificare bias o difetti e a migliorare collettivamente il sistema. Tuttavia, i modelli delle big company (Ernie, Tongyi, Spark) restano proprietari e chiusi come e più di ChatGPT. Ad esempio, Baidu non ha diffuso dettagli completi sull’architettura di Ernie 4.0 né sul suo dataset (se non in termini generici di “molti dati e conoscenza”), e lo stesso vale per Alibaba e Tencent. Dunque, il problema della “scatola nera” si ripropone: gli utenti e persino i governi stranieri faticano a fidarsi di ciò che non possono scrutinare. Alcuni paesi potrebbero diffidare dei chatbot cinesi temendo backdoor o influenze occulte, così come la Cina diffida di modelli occidentali per motivi simmetrici.
Sicurezza geopolitica: Infine, va considerato che questi modelli sono diventati anche un asset geopolitico. L’IA generativa è vista come la prossima piattaforma di computing ubiqua: chi la controlla, controlla in parte anche l’economia digitale e i flussi informativi. Gli Stati Uniti e l’Europa guardano con attenzione (talvolta con apprensione) ai progressi cinesi, preoccupati di perdere terreno tecnologico. Episodi come l’accusa di OpenAI a DeepSeek di furto intellettuale segnalano che potremmo assistere a tensioni e dispute anche legali tra Est e Ovest su questi temi. Il governo americano, dal canto suo, potrebbe reagire irrigidendo ulteriormente le restrizioni su chip e software avanzati verso la Cina, temendo che l’IA venga impiegata anche in ambito militare o per propaganda anti-occidentale. Si delinea dunque uno scenario dove etica e sicurezza nell’uso dei modelli IA cinesi non sono solo questioni interne alla Cina, ma hanno implicazioni globali di equilibrio del potere tecnologico.
In conclusione, la sfida cinese a ChatGPT è ormai lanciata su molti fronti. La Cina sta rapidamente costruendo un proprio ecosistema di intelligenza artificiale generativa, con soluzioni innovative che tengono conto delle particolarità linguistiche e normative del Paese. I modelli IA cinesi vantano già successi importanti – dall’enorme base utenti di Ernie Bot, ai progressi nei domini medico e legale – e rappresentano un alternativa emergente ai sistemi sviluppati in Occidente. Allo stesso tempo, rimane fondamentale affrontare con serietà le questioni etiche: garantire che queste intelligenze artificiali lavorino nell’interesse della società, con trasparenza e sicurezza, evitando sia derive orwelliane di controllo, sia rischi dovuti a errori o bias non controllati. La partita tra i modelli cinesi e ChatGPT non si gioca solo su parametri e dataset, ma anche su fiducia, valori e visione del futuro digitale. E sarà proprio il modo in cui Cina e resto del mondo sapranno governare questi strumenti a determinare chi conquisterà – e con quali principi – la leadership nell’AI dei prossimi anni.
Fonti:
- Agenzie di stampa e media internazionali: Reutersreuters.comreuters.comreuters.comreuters.com; Bloomberg (citato in mariomoroni.it); South China Morning Post (citato in agendadigitale.eu).
- Testate italiane e blog specialistici: Rai Newsrainews.itrainews.it; Agenda Digitaleagendadigitale.euagendadigitale.eu; Cybersecurity360cybersecurity360.it; AI4Businesscybersecurity360.it; MarioMoroni.itmariomoroni.itmariomoroni.it.
- Rapporti di ricerca e documentazione tecnica: arXiv (InternLM-Law)arxiv.org; EqualOceanequalocean.com; documenti Huawei Cloudhuawei.com.
📌 Cronologia e approfondimenti:
- Leggi su DeepSeek e il caso privacy in Italia – RaiNews
- Analisi tecnica di InternLM-Law – arXiv
- Censura e giustizia automatizzata in Cina – Agenda Digitale
- Benchmark e prestazioni ERNIE Bot – EqualOcean
🔍 Consigli di lettura
- L’ascesa dell’IA cinese nel contesto geopolitico – AI4Business
- Come funziona il sistema di approvazione IA in Cina – Reuters
🧠 Abstract: Pro e rischi etici
Pro: padronanza della lingua cinese, specializzazione settoriale, accessibilità open source, integrazione nei servizi.
Rischi: censura e propaganda algoritmica, opacità nei dati e nel funzionamento, sorveglianza statale, bias e possibili errori in ambito medico e giuridico.
Conseguenze future: la leadership cinese nell’IA dipenderà dalla capacità di bilanciare innovazione, trasparenza e diritti fondamentali.
