Secondo la sociologa Tressie McMillan Cottom, la narrazione dominante sull’intelligenza artificiale non è neutrale: riflette gli interessi delle élite economiche. L’IA, più che un destino inevitabile, sarebbe uno strumento politico e sociale per rafforzare disuguaglianze e controllo.
Nel 2025 l’intelligenza artificiale è al centro di un dibattito globale che oscilla tra utopia tecnologica e paura apocalittica. Ma per la sociologa statunitense Tressie McMillan Cottom, professoressa alla University of North Carolina, la questione fondamentale è un’altra: chi decide il futuro dell’IA e chi ne trae davvero beneficio.
Intervenendo a un dibattito pubblico a Detroit, Cottom ha messo in discussione l’idea che un futuro dominato dall’intelligenza artificiale sia inevitabile. Secondo la studiosa, presentare l’IA come un destino già scritto serve a legittimare le scelte di una ristretta élite economica. «Quando qualcuno dice che il futuro è già deciso, è perché è profondamente incerto», ha spiegato, definendo la promessa dell’IA una proiezione dell’ansia dei più ricchi di mantenere il controllo sociale.
L’analisi si inserisce in un contesto di crescente concentrazione del potere tecnologico. I principali modelli di intelligenza artificiale sono sviluppati e controllati da poche grandi aziende, con investimenti miliardari e un accesso asimmetrico ai dati. Secondo dati OCSE e Commissione europea, questa concentrazione rischia di ampliare il divario tra chi governa la tecnologia e chi la subisce, soprattutto nel lavoro, nella sorveglianza e nei servizi pubblici.
Cottom rifiuta anche la visione “post-umana” spesso associata all’automazione totale. «Non smetteremo di creare esseri umani, ma potremmo smettere di trattarli come tali», avverte, richiamando precedenti storici in cui sistemi di potere sono stati giustificati come inevitabili. La sua proposta è radicale quanto semplice: il rifiuto collettivo come atto politico e sociale.
In un momento in cui l’IA mostra anche limiti tecnici e rallentamenti nello sviluppo, l’idea che non esista alternativa appare sempre meno fondata. Il futuro dell’intelligenza artificiale, conclude Cottom, non è una fatalità tecnologica, ma una scelta umana.
Approfondimento – Cronologia e contesto
- 2018–2023: crescita dei Big Tech e concentrazione dei modelli IA (OECD)
https://www.oecd.org/digital/ - 2021: UNESCO pubblica le Raccomandazioni sull’etica dell’IA
https://www.unesco.org/en/artificial-intelligence/recommendation-ethics - 2024–2025: AI Act UE e dibattito su governance e diritti fondamentali
https://digital-strategy.ec.europa.eu/it/policies/european-ai-act
Consigli di approfondimento
- Commissione europea – IA e diritti fondamentali
https://commission.europa.eu - MIT Technology Review – AI e disuguaglianze sociali
https://www.technologyreview.com
Abstract – Pro, rischi e conseguenze future
L’intelligenza artificiale può migliorare produttività e servizi, ma senza governance rischia di rafforzare disuguaglianze, sorveglianza e concentrazione del potere. Eticamente, il pericolo è la normalizzazione di un trattamento “disumano” delle persone. Socialmente, il rifiuto critico e la partecipazione democratica restano leve decisive per orientare lo sviluppo futuro dell’IA.







