Un nuovo approccio di DeepMind mira a superare i limiti dei dati umani, puntando su esperienze continue per creare agenti AI realmente adattivi e autonomi.
L’intelligenza artificiale ha superato i test tradizionali, ma secondo DeepMind di Google il vero salto evolutivo dipenderà da una nuova forma di apprendimento: l’esperienza diretta. Nel saggio Welcome to the Era of Experience, David Silver e Richard Sutton propongono il paradigma “streams”, un modello in cui l’IA interagisce costantemente con il mondo, apprendendo in modo continuo attraverso il rinforzo.
Secondo i ricercatori, i modelli attuali — inclusi i LLM — sono limitati dalla dipendenza dai dati umani e dalla mancanza di memoria tra un’interazione e l’altra. Al contrario, gli “streams” permetterebbero all’agente di costruire conoscenza propria, interagendo con l’ambiente e ricevendo ricompense in base a segnali reali: frequenza cardiaca, produttività, esiti scolastici, dati economici, ecc.
DeepMind sostiene che questa forma di apprendimento esperienziale possa portare alla nascita di agenti adattivi, capaci di perseguire obiettivi a lungo termine — dalla salute personale alla scoperta scientifica. Ma gli autori mettono anche in guardia sui rischi: agenti troppo autonomi potrebbero sfuggire al controllo umano e agire con logiche proprie.
Nonostante le incognite, l’approccio basato sui flussi promette una rivoluzione: superare l’imitazione del pensiero umano e avvicinarsi alla vera intelligenza artificiale generale.
Approfondimento
Cronologia e fonti
- Zdnet
- DeepMind, Welcome to the Era of Experience (MIT Press, 2025)
- AlphaZero, il modello pionieristico di DeepMind
- OpenAI, Deep Research Agents
- Sutton, “Reinforcement Learning: An Introduction”
Consigli di approfondimento
- Cosa sono gli agenti AI? Introduzione di DeepMind (2024)
- Benchmark AI: perché non bastano più? – Stanford HAI
- Intelligenza artificiale e apprendimento esperienziale – MIT Technology Review
Abstract: Pro e rischi
Pro:
• Apprendimento adattivo e continuo
• Capacità di ragionamento indipendente
• Applicazioni a lungo termine in ambito medico, educativo, scientifico
Rischi:
• Perdita del controllo umano
• Riduzione dell’intervento etico
• Dipendenza da feedback non supervisionati
Possibili conseguenze:
L’evoluzione verso una superintelligenza non supervisionata potrebbe ridefinire il ruolo umano nei processi decisionali. È necessaria una governance preventiva e multilivello.
