OpenAI: Un nuovo approccio per migliorare il ragionamento matematico: la supervisione del processo

Un nuovo approccio rivoluzionario per migliorare il ragionamento matematico è stato sviluppato da ricercatori di spicco nel campo dell’intelligenza artificiale. Utilizzando la “supervisione del processo”, invece di premiare semplicemente la risposta finale corretta, un modello addestrato ha raggiunto un nuovo stato dell’arte nella risoluzione dei problemi matematici. La supervisione del processo consiste nel premiare ogni passo di ragionamento corretto, fornendo un beneficio significativo per l’allineamento del modello con il pensiero umano.

Nei recenti anni, i grandi modelli di linguaggio hanno notevolmente migliorato la loro capacità di eseguire ragionamenti complessi a più passi. Tuttavia, anche i modelli più avanzati producono ancora errori logici, spesso chiamati “allucinazioni”. Mitigare le allucinazioni rappresenta un passo critico verso la creazione di un’intelligenza artificiale allineata.

È possibile addestrare modelli di ricompensa per individuare le allucinazioni utilizzando la supervisione del risultato, che fornisce un feedback basato sul risultato finale, o la supervisione del processo, che fornisce un feedback per ogni singolo passo del ragionamento. Sulla base di precedenti lavori, è stato condotto un confronto dettagliato tra questi due metodi utilizzando il dataset MATH come banco di prova. È emerso che la supervisione del processo porta a prestazioni significativamente migliori, anche valutando gli esiti. Per favorire la ricerca correlata, è stato reso disponibile il nostro dataset completo di supervisione del processo.

La supervisione del processo presenta diversi vantaggi in termini di allineamento rispetto alla supervisione del risultato. Essa premia direttamente il modello per seguire un ragionamento allineato, poiché ogni passo del processo riceve una supervisione precisa. Inoltre, la supervisione del processo tende a produrre ragionamenti interpretabili, poiché incoraggia il modello a seguire un processo approvato dagli esseri umani. Al contrario, la supervisione del risultato potrebbe premiare un processo non allineato ed è generalmente più difficile da scrutinare.

In alcuni casi, metodi più sicuri per i sistemi di intelligenza artificiale possono comportare una riduzione delle prestazioni, un costo noto come “tassa di allineamento”. In generale, qualsiasi tassa di allineamento potrebbe ostacolare l’adozione di metodi di allineamento, a causa della pressione per implementare il modello più capace. I nostri risultati mostrano che la supervisione del processo comporta effettivamente una tassa di allineamento negativa, almeno nel campo della matematica. Ciò potrebbe aumentare l’adozione della supervisione del processo, con effetti positivi sull’allineamento.

Per valutare i modelli di ricompensa supervisionati dal processo e dal risultato, sono stati utilizzati problemi provenienti dal set di test MATH. Sono state generate molte soluzioni per ogni problema, e successivamente è stata selezionata la soluzione con il punteggio più alto da ciascun modello di ricompensa. Il grafico mostra la percentuale di soluzioni scelte che raggiungono la risposta finale corretta, in relazione al numero di soluzioni considerate. Non solo il modello di ricompensa supervisionato dal processo ottiene prestazioni migliori in generale, ma il divario di prestazioni si amplia all’aumentare delle soluzioni considerate per ogni problema. Ciò dimostra che il modello di ricompensa supervisionato dal processo è molto più affidabile.

NEWS AIopenmind su:

3D (4)6G (1)Adobe (14)Aeronautica (7)Africa (2)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (1)Amazon (9)Ambiente (1)Android (1)Animali (6)Animazione (3)Anziani (1)App (1)Apple (16)Archeologia (2)Architettura (3)Armi (2)Arredamento interni (1)Arte (23)Astronomia (2)AT&T (1)Audio (22)Autoapprendimento (1)Avatar (2)Aviazione (1)Avvocati (1)Aziende (10)Banca (3)Bard (3)Biblioteca (1)Bill Gates (1)Bing (9)Birra (1)Blockchain (2)Boston Dynamics (1)Calcio (2)Canva (1)Cattolicesimo (3)Certificazioni (1)chataudio (1)Chatbot IA (28)Chip (2)Cina (48)Cinema (2)Clima (2)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (1)Compagnie aeree (1)Computer quantistici (25)Computer Vision (3)Comuni italiani (1)Comunicazione (6)Comunicazioni vocali (1)Contabilità (1)Convegno (1)Copyright (4)Criptovalute (1)Cybersecurity (1)Dalle-2 (1)Dark web (2)Dating (1)Deepfake (2)Design automobilistico (2)Design Industriale (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)Editing fotografico (2)Editoria (7)ENEA (1)Esercito (2)Etica (99)Europol (1)Eventi (4)Evento (3)Facebook (3)FakeNews (15)Falegnameria (1)Fauna selvatica (1)Film (2)Finanza (5)Finanziamenti Italia (1)Firefly (3)Formazione (3)Fotografia (51)Francia (1)Free lance (1)Gaming (1)Garante privacy (11)Giappone (8)Giochi (3)Giornalismo (10)Giustizia (1)Google (114)Governo (6)Grafica (2)Guerra (8)Guida autonoma (2)Hong Kong (1)IBM (5)Illustrazioni (1)iMessage (1)Immobiliare (1)India (3)Influencer (1)Informazione (4)Inghilterra (2)INPS (1)Intel (2)Istruzione (13)Lavoro (38)Libri (2)Linguistica computazionale (6)Linkedin (3)Maltrattamento infantile (1)Marina (1)Marketing (13)Medicina (19)Mercedes-Benz (1)Meta (22)Metaverso (15)Microsoft (63)Midjourney (10)Mobilità sostenibile (1)Moda (5)Mozilla (2)Musica (16)Nato (1)Natura (1)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (12)Occhiali (1)Oculistica (1)OMS (1)OpenAI (102)Opera (2)Opera Browser (1)Oracle (1)Orologio (1)Parlamento Europeo (3)Patente di guida (1)Pensieri (1)Pianeta (1)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (2)Privacy (15)Programmazione (4)Prompt (5)Pubblicazione (1)Pubblicità (12)QR Code (1)Realtà mista (2)Relazioni internazionali (2)Relazioni Pubbliche (3)Religione (1)Report (41)Ricerca scientifica (6)Riconoscimento emotivo (1)Risorse online (100)Ristorazione (2)Robotica (23)Salute (2)Samsung (1)Sanità (14)Satelliti (2)Sceneggiatura (1)Semiconduttori (2)SEO (1)Shopping online (1)Sicurezza (14)Sicurezza informatica (22)SMS (1)Snapchat (2)Soccorso (1)Società (1)Software (3)Sport (1)Stable Animation SDK (1)Stable Diffusion (6)Standard (2)Startup (6)streaming live (1)Superintelligenza (1)Sviluppatori (1)Sviluppo sostenibile (1)Taiwan (2)Taxi (1)Telecomunicazioni (2)Telegram (1)Televisione (1)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Gli standard invisibili

di Domenico Natale – 5 Agosto 2023 _______ A volte sembra che gli standard sull’Intelligenza Artificiale siano invisibili. In effetti rispetto agli oltre 20.000 standard esistenti...

Azure Quantum: Un salto avanti nella scoperta scientifica

https://www.youtube.com/watch?v=JkQGM5ZuXO4 Microsoft annuncia nuovi progressi per Azure Quantum con l'obiettivo di accelerare la scoperta scientifica. Questi avanzamenti sono rivolti a sfruttare le potenzialità della computazione...

L’Innovazione nell’era dell’IA Generativa

MARTEDI’ 5 SETTEMBRE ORE 14:30/16:00 Roma, 1 settembre 2023 – L’Innovazione nell’era dell’IA Generativa è il titolo del webinar organizzato dall’Osservatorio TuttiMedia e la Commissione Europea il...

Antiriciclaggio per l’arte: a Roma il Workshop

organizzato da Genio Business https://www.youtube.com/watch?v=BCd6l-uDkYc Questo imprescindibile aspetto per il mercato dell’Arte, alla luce delle trasformazioni e delle possibilità tecnologiche e di Intelligenza Artificiale dell’attuale momento...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines