Apple ha annunciato il suo nuovo progetto di ricerca intitolato “ReALM: Reference Resolution As Language Modeling”, focalizzato sulla risoluzione dei riferimenti attraverso i modelli linguistici. Questa iniziativa mira a risolvere uno dei problemi più cruciali nell’ambito del linguaggio naturale: la comprensione e la gestione efficace del contesto. Tale contesto comprende sia i turni di conversazione precedenti che il contesto relativo alle entità non conversazionali, come gli elementi presenti sullo schermo dell’utente o quelli in esecuzione in background.
Gli attuali modelli di linguaggio (LLM) si sono dimostrati estremamente potenti per una varietà di compiti, tuttavia il loro utilizzo nella risoluzione dei riferimenti, soprattutto per entità non conversazionali, rimane sottoutilizzato. Il progetto ReALM illustra come i LLM possano essere impiegati per creare un sistema estremamente efficace nella risoluzione dei riferimenti di vario tipo, trasformando il problema della risoluzione dei riferimenti in un problema di modellizzazione del linguaggio.
Il team di ricerca ha dimostrato significativi miglioramenti rispetto ai sistemi esistenti con funzionalità simili, con il loro modello più piccolo che ottiene guadagni assoluti superiori al 5% per i riferimenti sullo schermo. Inoltre, è stata condotta una comparazione con i modelli GPT-3.5 e GPT-4, con il modello più piccolo che raggiunge prestazioni comparabili a quelle di GPT-4, mentre i modelli più grandi lo superano sostanzialmente.