Il principe Harry e Meghan Markle hanno firmato una lettera pubblica che chiede il divieto dello sviluppo di una “superintelligenza” artificiale, ritenuta una minaccia esistenziale per l’umanità. L’iniziativa, promossa dal Future of Life Institute, ha raccolto firme da un fronte eterogeneo che include scienziati, economisti, leader religiosi, politici e personaggi dello spettacolo.
Un fronte trasversale contro i rischi dell’IA
Tra i firmatari compaiono pionieri dell’intelligenza artificiale come Yoshua Bengio e Geoffrey Hinton, il cofondatore di Apple Steve Wozniak, l’imprenditore Richard Branson, ex leader politici come Mary Robinson ed esperti di sicurezza come l’ammiraglio Mike Mullen. Non mancano figure inattese come Steve Bannon e Glenn Beck, segno di un appello che supera divisioni ideologiche.
Il documento chiede che lo sviluppo di sistemi capaci di superare gli esseri umani in quasi tutti i compiti cognitivi sia vietato, almeno fino a quando non vi sarà consenso scientifico sulla possibilità di un uso sicuro e controllabile, oltre a un chiaro sostegno dell’opinione pubblica.
Le voci dei protagonisti
Il principe Harry ha sottolineato che il progresso tecnologico deve essere guidato dalla “saggezza” e non dalla velocità, mentre la duchessa Meghan ha ribadito l’importanza di garantire che l’IA resti “al servizio dell’umanità”. Stuart Russell, docente a Berkeley e tra i principali studiosi del settore, ha definito l’appello una semplice richiesta di garanzie minime per evitare rischi catastrofici.
Un dibattito globale
La lettera riaccende la discussione sulla corsa all’IA, già segnata dall’appello del 2023 per una moratoria di sei mesi, rimasto senza seguito. Max Tegmark, presidente del Future of Life Institute, ha avvertito che le grandi aziende sono intrappolate in una “corsa al ribasso” che rende urgente un intervento normativo.
Approfondimento – Cronologia dei fatti
- Marzo 2023 – Prima lettera del Future of Life Institute per sospendere lo sviluppo di modelli avanzati (non adottata).
- 2023–2025 – Crescita esponenziale dell’IA generativa e annuncio di piani per raggiungere l’AGI.
- Ottobre 2025 – Nuovo appello con firme da scienziati, leader politici e figure pubbliche.
Fonti: Future of Life Institute • UC Berkeley – AI Safety • MIT – Max Tegmark
Consigli di lettura
- Rapporto UNESCO sull’IA e l’etica
- AI Act europeo – Commissione UE
- Stanford AI Index Report
Abstract
L’appello guidato da Future of Life Institute mette in evidenza i rischi etici e sociali della superintelligenza: perdita di controllo umano, obsolescenza lavorativa, erosione delle libertà civili e potenziali minacce alla sicurezza nazionale. Se da un lato la tecnologia promette benefici in medicina, sicurezza e prosperità, dall’altro la corsa al potere computazionale potrebbe accentuare disuguaglianze e ridurre il margine decisionale delle istituzioni democratiche. Le conseguenze future dipenderanno dal bilanciamento tra innovazione e governance globale.







