Meta ha annunciato il lancio di SAM 2, la nuova generazione del suo Meta Segment Anything Model (SAM), progettata per la segmentazione di oggetti in tempo reale in immagini e video. Dopo il grande successo di SAM, il nuovo modello rappresenta un passo avanti significativo nel campo della computer vision, raggiungendo prestazioni all’avanguardia e ampliando notevolmente le sue applicazioni pratiche.
SAM 2 è caratterizzato da un’architettura unificata che consente di segmentare qualsiasi oggetto, anche in domini visivi mai visti prima, senza la necessità di adattamenti specifici. Questo approccio, noto come generalizzazione zero-shot, offre la possibilità di applicare SAM 2 in una varietà di contesti reali, dalle applicazioni creative nel video editing all’analisi scientifica, come il tracciamento di cellule in movimento.
In linea con l’impegno per la scienza aperta, Meta ha reso disponibili il codice e i pesi del modello sotto licenza Apache 2.0, consentendo a chiunque di utilizzare e costruire su questa tecnologia innovativa. Inoltre, è stato rilasciato il dataset SA-V, composto da circa 51.000 video reali e oltre 600.000 maschere temporali, che supporta l’addestramento di SAM 2.
Grazie alla sua capacità di segmentare oggetti in tempo reale, SAM 2 potrebbe rivoluzionare il modo in cui interagiamo con i video, migliorando gli strumenti di annotazione e aprendo nuove strade per la creatività. Con un impatto già visibile in numerosi settori, dalle applicazioni di Instagram all’analisi delle immagini marine, SAM 2 promette di espandere ulteriormente le possibilità offerte dall’intelligenza artificiale, come affermato da Mark Zuckerberg, sottolineando il potenziale dell’AI open-source nel migliorare la produttività e la qualità della vita.