Meta Platforms ha annunciato il taglio di circa 600 posti di lavoro nelle divisioni dedicate all’intelligenza artificiale, incluse la Fundamental AI Research (FAIR) e le unità infrastrutturali legate ai prodotti. La decisione, confermata il 22 ottobre 2025, arriva mentre l’azienda di Menlo Park continua ad assumere per il suo TBD Lab, il laboratorio interno dedicato allo sviluppo della cosiddetta superintelligenza.
Secondo Axios, che ha anticipato la notizia, i dipendenti colpiti dai licenziamenti sono stati invitati a ricollocarsi in altre posizioni interne, con la prospettiva che la maggioranza riesca a rimanere in azienda. Alexandr Wang, responsabile IA di Meta, ha rassicurato che la riorganizzazione non toccherà i progetti strategici del laboratorio di nuova generazione.
Il TBD Lab sta lavorando a modelli linguistici di grandi dimensioni (LLM), simili a quelli di OpenAI (ChatGPT) e Google (Gemini), ma con un approccio distintivo: Meta ha scelto la via open source, rilasciando Llama come piattaforma aperta. Una strategia che, se da un lato ha accelerato la diffusione globale, con oltre un miliardo di persone che utilizzano mensilmente i suoi strumenti IA, dall’altro ha alimentato critiche per un presunto ritardo nell’offerta di applicazioni consumer competitive rispetto ai rivali.
La scelta di ridurre FAIR, storicamente cuore della ricerca fondamentale di Meta, e di concentrare investimenti sulla superintelligenza segna un passaggio cruciale: dal sostegno alla ricerca accademica all’obiettivo di primeggiare nella corsa ai sistemi avanzati capaci di autonomia crescente.
Cronologia essenziale e fonti affidabili
- 2013: Meta fonda FAIR, guidata da Yann LeCun (Meta Research).
- 2023: Lancio di Llama 2, distribuito in open source.
- 2024: Avvio del TBD Lab, focalizzato sulla superintelligenza.
- 2025: Licenziamenti in FAIR, nuove assunzioni per i LLM di ultima generazione (Axios, link – si apre in nuova scheda).
Consigli di approfondimento
- UE AI Act e implicazioni per i big tech (Commissione Europea).
- Analisi su modelli open source vs proprietari (Stanford HAI).
- Evoluzione della superintelligenza e rischi etici (Future of Life Institute).
Abstract – Pro e rischi
La mossa di Meta evidenzia una strategia ambivalente: riduzione della ricerca fondamentale per concentrare risorse sulla superintelligenza open source. Tra i vantaggi, la democratizzazione degli strumenti e l’ampliamento della base utenti. Tuttavia, emergono rischi etici e sociali: perdita di posti di lavoro qualificati, minor attenzione alla ricerca indipendente e possibili conseguenze geopolitiche legate alla diffusione di modelli avanzati senza adeguate tutele. In prospettiva, la scelta di Meta potrebbe ridisegnare il rapporto tra IA aperta e IA proprietaria, influenzando innovazione, governance e sicurezza globale.







