Meta, l’azienda madre di Facebook, si sta preparando a una rivoluzione nell’ambito dei video online. Tom Alison, capo di Meta, ha dichiarato che parte della “strategia tecnologica che arriva fino al 2026” di Meta coinvolge lo sviluppo di un modello di raccomandazione basato sull’intelligenza artificiale che potrebbe alimentare sia il servizio di video brevi Reels, simile a TikTok, che video più tradizionali e più lunghi.
Fino ad oggi, Meta ha utilizzato tipicamente un modello separato per ciascuno dei suoi prodotti, come Reels, Gruppi e il feed principale di Facebook, ha affermato Alison durante la conferenza tecnologica di Morgan Stanley a San Francisco.
Come parte dell’ambizioso progetto di Meta nel campo dell’IA, l’azienda ha investito miliardi di dollari nelle unità di elaborazione grafica Nvidia, o GPU, diventate i chip principali utilizzati dai ricercatori di intelligenza artificiale per l’addestramento dei grandi modelli di linguaggio utilizzati per alimentare ChatGPT di OpenAI e altri modelli di IA generativi.
Alison ha dichiarato che la “fase 1” della strategia tecnologica di Meta ha coinvolto il passaggio dei sistemi di raccomandazione attuali dell’azienda alle GPU dai chip informatici più tradizionali, contribuendo a migliorare le prestazioni complessive dei prodotti.
Con l’interesse esploso lo scorso anno per i grandi modelli di linguaggio, gli esecutivi di Meta sono rimasti colpiti da come questi modelli di IA potessero “gestire grandi quantità di dati e tutti i tipi di attività molto generiche come chiacchierare”, ha detto Alison. Meta ha intravisto la possibilità di un gigantesco modello di raccomandazione che potrebbe essere utilizzato su tutti i prodotti e, lo scorso anno, ha sviluppato “questo nuovo tipo di architettura del modello”, ha aggiunto Alison, sottolineando che l’azienda l’ha testata su Reels.
Questa nuova “architettura del modello” ha aiutato Facebook ad ottenere “un aumento dell’8% al 10% del tempo di visione di Reels” sull’app principale di Facebook, ha detto Alison, dimostrando che il modello “apprendeva dai dati in modo molto più efficiente rispetto alla generazione precedente”.
“Abbiamo davvero concentrato i nostri sforzi nell’investire di più per garantire che possiamo scalare questi modelli con il giusto tipo di hardware”, ha detto.
Meta si trova ora nella “fase 3” della ristrutturazione del sistema, che coinvolge il tentativo di convalidare la tecnologia e diffonderla su più prodotti.
“Piuttosto che alimentare solo Reels, stiamo lavorando su un progetto per alimentare l’intero ecosistema video con questo singolo modello, e poi possiamo aggiungere il nostro prodotto di raccomandazione del feed affinché sia anch’esso servito da questo modello”, ha detto Alison. “Se riusciamo a farlo bene, non solo le raccomandazioni saranno più coinvolgenti e pertinenti, ma pensiamo che anche la loro reattività possa migliorare”.
Illustrando come funzionerà in caso di successo, Alison ha detto: “Se vedi qualcosa che ti interessa in Reels, e poi torni al Feed, possiamo mostrarti contenuti simili”.
Alison ha dichiarato che Meta ha accumulato una massiccia scorta di GPU che saranno utilizzate per sostenere i suoi più ampi sforzi nell’IA generativa, come lo sviluppo di assistenti digitali.
Alcuni progetti di IA generativa che Meta sta considerando includono l’incorporazione di strumenti di chiacchierata più sofisticati nel suo Feed principale in modo che una persona che vede un “post consigliato su Taylor Swift”, potrebbe forse “facilmente cliccare un pulsante e dire, ‘Ehi, Meta IA, dimmi di più su ciò che sto vedendo con Taylor Swift in questo momento'”.
Meta sta anche sperimentando l’integrazione del suo strumento di chiacchierata IA nei Gruppi, così un membro di un gruppo di cucina di Facebook potrebbe potenzialmente fare una domanda sui dessert e ottenere una risposta da un assistente digitale.
“Penso che abbiamo l’opportunità di mettere l’IA generativa in un ambiente consumatore più giocoso”, ha detto Alison.
_______
Meta is building a giant AI model to power its ‘entire video ecosystem,’ exec says