Apple ha annunciato il lancio di OpenELM, una nuova famiglia di modelli linguistici open-source che promette di rivoluzionare il campo dell’Intelligenza Artificiale (IA). Questo progetto, sviluppato da un team di ricercatori e ingegneri di Apple, introduce un approccio innovativo per migliorare l’efficienza e la precisione dei modelli di linguaggio.
OpenELM utilizza una strategia di ridimensionamento strato per strato, che consente di allocare i parametri in modo più efficiente all’interno di ogni strato del modello transformer. Questo approccio porta a una maggiore accuratezza senza compromettere la velocità e le risorse necessarie per l’esecuzione del modello.
La famiglia di modelli OpenELM include versioni con 270 milioni, 450 milioni, 1,1 miliardi e 3 miliardi di parametri, offrendo un’ampia gamma di opzioni per soddisfare le diverse esigenze degli sviluppatori e degli utenti. I modelli sono stati addestrati utilizzando la libreria CoreNet, sfruttando un vasto dataset che comprende RefinedWeb, PILE, RedPajama e Dolma v1.6, per un totale di circa 1,8 trilioni di token.
Apple ha rilasciato sia modelli pre-addestrati che modelli sintonizzati su istruzioni, rendendo OpenELM accessibile a una vasta comunità di sviluppatori. L’azienda ha anche fornito un esempio di codice per generare output utilizzando OpenELM tramite HuggingFace Hub, offrendo la possibilità di provare il modello con vari parametri personalizzati.
Il rilascio di OpenELM rappresenta un importante passo avanti per l’IA open-source, poiché Apple, uno dei leader nel settore tecnologico, si impegna a condividere le sue innovazioni con la comunità globale. Gli sviluppatori e i ricercatori sono entusiasti di esplorare le potenzialità di questi nuovi modelli, che potrebbero aprire la strada a soluzioni ancora più avanzate nel campo dell’intelligenza artificiale e del linguaggio naturale.