OpenAI: Un nuovo approccio per migliorare il ragionamento matematico: la supervisione del processo

Un nuovo approccio rivoluzionario per migliorare il ragionamento matematico è stato sviluppato da ricercatori di spicco nel campo dell’intelligenza artificiale. Utilizzando la “supervisione del processo”, invece di premiare semplicemente la risposta finale corretta, un modello addestrato ha raggiunto un nuovo stato dell’arte nella risoluzione dei problemi matematici. La supervisione del processo consiste nel premiare ogni passo di ragionamento corretto, fornendo un beneficio significativo per l’allineamento del modello con il pensiero umano.

Nei recenti anni, i grandi modelli di linguaggio hanno notevolmente migliorato la loro capacità di eseguire ragionamenti complessi a più passi. Tuttavia, anche i modelli più avanzati producono ancora errori logici, spesso chiamati “allucinazioni”. Mitigare le allucinazioni rappresenta un passo critico verso la creazione di un’intelligenza artificiale allineata.

È possibile addestrare modelli di ricompensa per individuare le allucinazioni utilizzando la supervisione del risultato, che fornisce un feedback basato sul risultato finale, o la supervisione del processo, che fornisce un feedback per ogni singolo passo del ragionamento. Sulla base di precedenti lavori, è stato condotto un confronto dettagliato tra questi due metodi utilizzando il dataset MATH come banco di prova. È emerso che la supervisione del processo porta a prestazioni significativamente migliori, anche valutando gli esiti. Per favorire la ricerca correlata, è stato reso disponibile il nostro dataset completo di supervisione del processo.

La supervisione del processo presenta diversi vantaggi in termini di allineamento rispetto alla supervisione del risultato. Essa premia direttamente il modello per seguire un ragionamento allineato, poiché ogni passo del processo riceve una supervisione precisa. Inoltre, la supervisione del processo tende a produrre ragionamenti interpretabili, poiché incoraggia il modello a seguire un processo approvato dagli esseri umani. Al contrario, la supervisione del risultato potrebbe premiare un processo non allineato ed è generalmente più difficile da scrutinare.

In alcuni casi, metodi più sicuri per i sistemi di intelligenza artificiale possono comportare una riduzione delle prestazioni, un costo noto come “tassa di allineamento”. In generale, qualsiasi tassa di allineamento potrebbe ostacolare l’adozione di metodi di allineamento, a causa della pressione per implementare il modello più capace. I nostri risultati mostrano che la supervisione del processo comporta effettivamente una tassa di allineamento negativa, almeno nel campo della matematica. Ciò potrebbe aumentare l’adozione della supervisione del processo, con effetti positivi sull’allineamento.

Per valutare i modelli di ricompensa supervisionati dal processo e dal risultato, sono stati utilizzati problemi provenienti dal set di test MATH. Sono state generate molte soluzioni per ogni problema, e successivamente è stata selezionata la soluzione con il punteggio più alto da ciascun modello di ricompensa. Il grafico mostra la percentuale di soluzioni scelte che raggiungono la risposta finale corretta, in relazione al numero di soluzioni considerate. Non solo il modello di ricompensa supervisionato dal processo ottiene prestazioni migliori in generale, ma il divario di prestazioni si amplia all’aumentare delle soluzioni considerate per ogni problema. Ciò dimostra che il modello di ricompensa supervisionato dal processo è molto più affidabile.

NEWS AIopenmind su:

3D (5)6G (1)Accademia di Comunicazione (4)Acer (1)Adobe (30)Aeronautica (9)Africa (2)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (4)AGID (1)Amazon (25)Ambiente (1)AMD (1)Android (5)Animali (6)Animazione (4)Anthropic (3)Anziani (1)App (10)Apple (50)Archeologia (3)Architettura (4)Armi (3)Arredamento interni (2)Arte (26)Assistente vocale (3)Astronomia (2)Asus (1)AT&T (1)Audi (1)Audio (50)Autoapprendimento (1)Avatar (3)Aviazione (1)Avvocati (2)Aziende (18)Banca (3)Bard (3)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)Canva (4)Cattolicesimo (3)Certificazioni (1)Cesintes (1)chataudio (1)Chatbot IA (41)Chip (3)Cina (52)Cinema (4)Claude (16)Clima (3)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (1)Compagnie aeree (1)Computer (2)Computer quantistici (30)Computer Vision (3)Comuni italiani (1)Comunicazione (9)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (1)Contabilità (1)Convegno (13)Copilot (5)Copyright (11)Criptovalute (1)Cybersecurity (1)Dalle-2 (3)Dark web (2)Dating (1)Deepfake (2)Design automobilistico (2)Design Industriale (6)Diritti Autore (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)eBay (1)Editing fotografico (2)Editoria (9)Email (1)ENEA (2)Esercito (2)Etica (117)Europol (1)Eventi (5)Evento (7)Facebook (3)FakeNews (18)Falegnameria (1)Fauna selvatica (1)Film (2)Finanza (7)Finanziamenti Italia (3)Firefly (3)Fondo Monetario Internazionale (1)Formazione (11)Fotografia (94)Francia (1)Free lance (1)G7 (1)Gaming (1)Garante privacy (19)Giappone (9)Giochi (6)Giornalismo (10)Giustizia (1)Google (228)Governo (7)Governo Italiano (2)Grafica (5)Guerra (12)Guida autonoma (3)Hong Kong (1)Hugging Face (3)IBM (6)Illustrazioni (1)iMessage (1)Immobiliare (1)India (3)Indossabili (2)Influencer (1)Informazione (9)Inghilterra (6)INPS (2)Intel (5)ISO (1)Istruzione (16)Jailbreaking (1)Kamala Harris (1)Lavoro (43)Libri (3)Linguistica computazionale (7)Linkedin (6)Linux (1)Luma AI (1)Maltrattamento infantile (1)Marina (1)Marketing (37)Medicina (23)Mercedes-Benz (1)Meta (56)Metaverso (15)Microsoft (146)Midjourney (15)Mobilità sostenibile (1)Moda (5)Modelli AI (22)Motori di Ricerca (11)Mozilla (2)Musica (32)NASA (1)Nato (2)Natura (2)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (31)Occhiali (2)Occhiali Intelligenti (1)Occhiali Smart (1)Oculistica (1)OMS (1)ONU (1)Open Source (2)OpenAI (193)Opera (8)Opera Browser (1)Oppo (3)Oracle (2)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (5)Pianeta (1)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (2)Privacy (21)Programmazione (10)Prompt (5)Pubblicazione (1)Pubblicità (18)QR Code (1)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Il Governo dell’Intelligenza Artificiale

Gestione dei rischi e innovazione responsabileRuben Razzante Cacucci editore, pp.121 Mercoledì 18 settembre ore 11 Esperienza Europa - David Sassoli Piazza Venezia 6c, Roma...

AI Privata per Tutti: Sicurezza e Privacy su Android

Google ha annunciato un approccio rivoluzionario alla privacy e alla sicurezza su Android, presentando Gemini, il nuovo assistente AI integrato nella piattaforma. Con una...

Mi sono imparato la scienza?

Fahrenheit.iit e il potere della narrazione. Mercoledì 13 marzo, ore 17:00 in Accademia di Comunicazione e in streaming Registrati La narrazione può essere la lama...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines