Nel 2025 le grandi aziende dell’intelligenza artificiale stanno progressivamente abbandonando il termine AGI (Artificial General Intelligence). Al suo posto emergono nuove etichette — dalla “superintelligenza personale” alla “IA potente” — pensate per ridurre ambiguità, timori pubblici e tensioni contrattuali, senza cambiare davvero l’obiettivo tecnologico.
L’AGI è stata per anni la parola chiave del settore: un’intelligenza artificiale pari o superiore a quella umana. Ma con l’avanzare rapido dei modelli e l’assenza di una definizione condivisa, il concetto è diventato sempre più sfuggente. Lo stesso Jeff Dean (Google) ha ammesso che le definizioni di AGI variano enormemente, mentre Sam Altman (OpenAI) e Dario Amodei (Anthropic) hanno definito il termine poco utile o puramente “di marketing”.
A spingere il rebranding contribuiscono anche fattori legali ed economici. Emblematico il contratto del 2019 tra Microsoft e OpenAI, che lega l’accesso alle tecnologie alla dichiarazione formale di AGI. Nel rinnovo del 2024, la definizione è stata demandata a un panel indipendente di esperti: una complessità che rende conveniente evitare del tutto il termine.
Così nascono nuove sigle. Meta parla di “personal superintelligence”, Microsoft di “humanist superintelligence”, Amazon di “useful general intelligence”, mentre Anthropic preferisce “powerful AI”, descritta come una sorta di “paese di geni in un data center”. Cambia il linguaggio, non la sostanza: sistemi sempre più capaci, autonomi e generalisti.
Il rebranding risponde anche a un’esigenza etica e comunicativa. L’AGI è ormai associata a scenari apocalittici, perdita di lavoro e rischi esistenziali. Nuove etichette consentono di rassicurare investitori e pubblico, presentando l’IA come strumento “utile”, “umanocentrico” e orientato ai problemi reali.
Approfondimento – Cronologia essenziale
- 1997: Mark Gubrud introduce il termine AGI
- 2019: contratto Microsoft–OpenAI con “AGI clause”
- 2024–2025: rebranding diffuso (Meta, Microsoft, Amazon, Anthropic)
Fonti
- The Verge (analisi 2025): https://www.theverge.com
- Microsoft AI Blog: https://blogs.microsoft.com/ai
- Anthropic Research: https://www.anthropic.com
- Meta AI: https://ai.meta.com
Consigli di approfondimento
- OECD, AI and the Future of Work: https://www.oecd.org
- UNESCO, Ethics of AI: https://www.unesco.org
Abstract – Pro, rischi e conseguenze sociali
Pro: linguaggio più accessibile, riduzione dell’allarmismo, maggiore chiarezza commerciale.
Rischi: opacità concettuale, marketing ingannevole, diluizione del dibattito etico.
Conseguenze future: possibile frammentazione normativa e difficoltà di governance, con un crescente divario tra capacità reali dell’IA e percezione pubblica.







