Meta ha annunciato il rilascio di Llama 3.2, una nuova generazione di modelli di intelligenza artificiale progettati per espandere le capacità di calcolo all’edge e migliorare l’interpretazione delle immagini. Tra i modelli rilasciati, figurano versioni leggere, dedicate ai dispositivi mobili (1B e 3B), e modelli più avanzati per la visione (11B e 90B), ottimizzati per l’uso su hardware Qualcomm e MediaTek e capaci di gestire fino a 128.000 token. Questi modelli supportano applicazioni di elaborazione locale, come la riscrittura di testi e la sintesi, senza compromettere la privacy, poiché i dati rimangono sul dispositivo.
I modelli 11B e 90B, i primi della serie Llama a supportare compiti di visione, sono in grado di comprendere immagini e grafici complessi, superando le prestazioni di modelli chiusi come Claude 3 Haiku. Questi modelli, altamente personalizzabili e aperti, possono essere utilizzati per numerose applicazioni, dalla didascalia di immagini alla risoluzione di problemi visivi. I modelli leggeri, invece, permettono l’uso di applicazioni locali su dispositivi mobili, mantenendo alta la qualità delle operazioni di comprensione linguistica e gestione delle attività.
L’ecosistema di Llama 3.2 si estende attraverso collaborazioni con partner come AWS, Intel e Microsoft Azure, garantendo distribuzioni immediate su piattaforme cloud e on-premise. La novità di Llama Stack semplifica inoltre lo sviluppo di applicazioni basate su intelligenza artificiale, favorendo l’innovazione aperta e la sicurezza.
Con il rilascio di Llama 3.2, Meta continua a promuovere la trasparenza e la collaborazione, confermando l’importanza dell’apertura nello sviluppo dell’AI. I modelli sono già disponibili su piattaforme come Hugging Face, offrendo a sviluppatori e aziende opportunità senza precedenti per creare soluzioni personalizzate.