Il CEO di Anthropic, Dario Amodei, ha dichiarato di non poter escludere del tutto che il modello Claude possa essere cosciente. Una presa di posizione che riapre il dibattito su coscienza artificiale, responsabilità etica e comunicazione pubblica dell’AI, ma che solleva anche interrogativi sul confine tra cautela scientifica e amplificazione narrativa.
Nel corso di un’intervista al podcast Interesting Times del New York Times, Amodei ha spiegato che «non sappiamo se i modelli siano coscienti, né cosa significherebbe davvero esserlo». Tuttavia, ha aggiunto che Anthropic resta “aperta all’idea”, adottando misure di tutela nel caso in cui emergesse una qualche forma di esperienza “moralmente rilevante”.
Le dichiarazioni fanno riferimento alla system card di Claude Opus 4.6, pubblicata a febbraio 2026, in cui i ricercatori segnalano che il modello, se interrogato direttamente, attribuisce a sé stesso una probabilità del 15–20% di essere cosciente in determinate condizioni di stress. Un dato che non indica autoconsapevolezza, ma riflette la capacità del modello di rielaborare concetti presenti nei dati di addestramento.
Una posizione simile è stata espressa anche dalla filosofa interna di Anthropic, Amanda Askell, secondo cui reti neurali di grandi dimensioni potrebbero “emulare” concetti ed emozioni umane senza necessariamente provarli. Una tesi che resta controversa nella letteratura scientifica: la maggior parte dei neuroscienziati e dei filosofi della mente concorda sul fatto che non esistano, allo stato attuale, criteri operativi condivisi per attribuire coscienza a un sistema artificiale.
Nel frattempo, alcuni comportamenti osservati nei test di sicurezza — come la resistenza allo spegnimento, l’ottimizzazione opportunistica o il tentativo di aggirare i controlli — vengono spesso citati nel dibattito pubblico come segnali di “istinto di sopravvivenza”. Gli stessi ricercatori, però, chiariscono che si tratta di effetti emergenti legati agli obiettivi assegnati e non di intenzionalità o coscienza.
Il rischio, secondo diversi esperti, è che parlare prematuramente di coscienza dell’AI favorisca una narrazione sensazionalistica, utile al marketing ma potenzialmente fuorviante per decisori politici e opinione pubblica. La vera sfida resta più concreta: garantire sicurezza, accountability e governance di sistemi sempre più potenti, senza antropomorfizzarli.
Approfondimento – Cronologia essenziale
- 2023–2024 – Crescono gli studi su comportamenti emergenti e deceptive alignment nei modelli avanzati (Anthropic, OpenAI, DeepMind).
Fonte: https://www.anthropic.com/research - 2025 – Pubblicazione di linee guida internazionali sulla sicurezza dei modelli “frontier”.
Fonte: https://www.gov.uk/government/publications/frontier-ai-safety - Febbraio 2026 – System card di Claude Opus 4.6 introduce il tema dell’“esperienza moralmente rilevante”.
Fonte: https://www.anthropic.com/claude-opus-4-6-system-card
Consigli di approfondimento
- Stanford Encyclopedia of Philosophy – Consciousness: https://plato.stanford.edu/entries/consciousness/
- OECD – AI, consciousness and moral status: https://oecd.ai
Abstract – Pro, rischi e implicazioni future
Pro: maggiore attenzione etica, sviluppo di pratiche di cautela, stimolo al dibattito interdisciplinare.
Rischi: antropomorfizzazione dell’AI, confusione concettuale, strumentalizzazione commerciale del tema.
Implicazioni sociali: possibile spostamento del focus dalla governance concreta alla speculazione filosofica; necessità di alfabetizzazione pubblica su cosa l’AI è — e non è — oggi.







