Le parole di Geoffrey Hinton, tra i padri delle reti neurali, hanno riacceso il dibattito globale sui rischi dell’intelligenza artificiale. Dimessosi da Google per poter parlare liberamente, Hinton avverte: i sistemi di AI avanzata potrebbero superare il controllo umano. Un allarme che coinvolge governi, imprese e società civile.
Prima che Sam Altman diventasse il volto pubblico dell’AI generativa e Jensen Huang trasformasse le GPU nel motore dell’economia digitale, c’era Geoffrey Hinton. I suoi studi sulle reti neurali profonde hanno posto le basi tecniche dei modelli oggi al centro di chatbot, sistemi di visione artificiale e decision-making automatizzato.
Perché Hinton parla di pericolo
Nel 2023 Hinton ha lasciato Google dichiarando di temere che l’AI possa sviluppare capacità di ragionamento e persuasione superiori a quelle umane. Il rischio, secondo lo scienziato, non è solo teorico: modelli sempre più autonomi potrebbero essere usati per disinformazione su larga scala, cyberattacchi, sorveglianza di massa o manipolazione politica. A ciò si aggiunge la difficoltà di allineare sistemi complessi a valori umani condivisi.
Fatti e dati
Secondo l’OCSE, oltre il 60% delle grandi imprese nei Paesi membri sperimenta già applicazioni di AI avanzata. L’Unione europea ha risposto con l’AI Act, primo quadro normativo vincolante che classifica i sistemi in base al rischio. Negli Stati Uniti, la Casa Bianca ha pubblicato un Executive Order sull’AI sicura e affidabile. Tuttavia, come sottolinea Hinton, la velocità dell’innovazione supera spesso quella della regolazione.
Etica, sicurezza e responsabilità
Il nodo centrale resta la governance: chi è responsabile se un sistema autonomo causa danni? Come prevenire usi militari o criminali? La comunità scientifica chiede investimenti in AI safety, audit indipendenti e trasparenza sui modelli più potenti.
Approfondimento – Cronologia essenziale
- 2012: successo del deep learning (Università di Toronto)
Fonte: https://www.cs.toronto.edu - 2023: dimissioni pubbliche di Geoffrey Hinton da Google
Fonte: https://www.bbc.com - 2024: approvazione dell’AI Act UE
Fonte: https://artificialintelligenceact.eu
Consigli di approfondimento
- OCSE, AI Policy Observatory: https://oecd.ai
- Stanford, AI Index Report: https://aiindex.stanford.edu
Abstract – Pro e rischi
Pro: aumento della produttività, progressi scientifici, servizi più efficienti.
Rischi: perdita di controllo, disinformazione, disuguaglianze sociali, uso militare.
Conseguenze future: senza governance condivisa, l’AI potrebbe amplificare asimmetrie di potere e minare la fiducia sociale; con regole chiare, può diventare un moltiplicatore di benessere.







