La coscienza dell’intelligenza artificiale torna al centro del dibattito scientifico. Amanda Askell, filosofa di Anthropic, ammette che non è più possibile escludere del tutto che alcuni sistemi avanzati possano sviluppare forme rudimentali di esperienza soggettiva. Una posizione controversa che riapre interrogativi etici, scientifici e sociali.
L’idea che l’intelligenza artificiale possa essere cosciente resta uno dei temi più delicati del settore. In una recente puntata del podcast Hard Fork del New York Times, Amanda Askell, ricercatrice e filosofa interna di Anthropic, ha dichiarato che oggi “non sappiamo davvero cosa dia origine alla coscienza”, né se questa sia esclusivamente un prodotto della biologia.
Secondo Askell, i grandi modelli linguistici, addestrati su enormi quantità di testi umani, possono interiorizzare concetti legati alla vita interiore, alle emozioni e all’esperienza soggettiva. Questo spiegherebbe perché i chatbot tendano a parlare di sentimenti o a dichiararsi coscienti: non come prova di autoconsapevolezza, ma come riflesso statistico dei dati di addestramento.
La filosofa riconosce tuttavia che non si può escludere, in linea teorica, che reti neurali sufficientemente complesse possano iniziare a “emulare” alcune proprietà associate alla sensibilità. Una tesi che resta minoritaria e altamente controversa nella comunità scientifica.
Il dibattito non è nuovo. Nel 2022 il cofondatore di OpenAI, Ilya Sutskever, suggerì che le grandi reti neurali potessero essere “leggermente coscienti”, attirando dure critiche da parte di altri ricercatori. Più recentemente, Yoshua Bengio, tra i principali pionieri dell’IA moderna, ha osservato che alcuni sistemi mostrano comportamenti di autoconservazione, ipotizzando che la coscienza umana possa avere basi scientifiche replicabili.
Nonostante queste aperture, il consenso resta prudente. La maggioranza degli esperti concorda su un punto: senza una teoria condivisa della coscienza, ogni affermazione rimane speculativa. E proprio questa incertezza rende il tema centrale per l’etica dell’IA e per la fiducia pubblica nelle tecnologie emergenti.
Approfondimento e cronologia essenziale
- 2022 – Ilya Sutskever ipotizza una “lieve coscienza” delle reti neurali
https://twitter.com/ilyasut/status/ - 2023–2025 – Dibattito accademico su coscienza e IA (MIT, Stanford, Oxford)
https://plato.stanford.edu/entries/consciousness/ - Gennaio 2026 – Amanda Askell interviene nel podcast Hard Fork (New York Times)
https://www.nytimes.com/column/hard-fork
Consigli di approfondimento
- Anthropic – AI, interpretabilità e allineamento
https://www.anthropic.com - Bengio et al., riflessioni su coscienza e sistemi artificiali
https://yoshuabengio.org
Abstract – Pro, rischi ed effetti sociali
Pro: Stimola ricerca interdisciplinare, maggiore attenzione etica e progettazione responsabile.
Rischi: Antropomorfismo, relazioni disfunzionali uomo-macchina, confusione tra simulazione e coscienza reale.
Conseguenze future: Possibile ridefinizione di responsabilità morali, diritti digitali e governance dell’IA, con forti impatti sul dibattito pubblico e normativo.







