OpenAI sta cercando di migliorare il comportamento dei sistemi di intelligenza artificiale come ChatGPT, e vuole coinvolgere maggiormente il pubblico nel processo decisionale su come questi sistemi dovrebbero funzionare.
In un post del 16 febbraio 2023 “How should AI systems behave, and who should decide?“, l’azienda ha esaminato come viene modellato il comportamento di ChatGPT, i suoi piani per migliorarlo e il ruolo dei revisori e delle politiche di OpenAI.
OpenAI ha affermato che la sua missione è garantire che l’intelligenza artificiale generale (AGI) sia a beneficio di tutta l’umanitĂ . Gli AGI sono sistemi altamente autonomi che superano gli umani nel lavoro economicamente piĂą prezioso. Per raggiungere questo obiettivo, l’azienda sta riflettendo molto sul comportamento dei sistemi di intelligenza artificiale costruiti prima dell’AGI e sul modo in cui tale comportamento viene determinato.
Il processo di creazione di ChatGPT è composto da due fasi: pre-formazione e messa a punto. Nella fase di pre-formazione, il modello impara a prevedere la parola successiva in una frase, a partire da un ampio insieme di dati non programmati in modo esplicito. Questa fase è seguita dalla messa a punto, in cui l’azienda restringe il comportamento del sistema. OpenAI ha ammesso che il processo è imperfetto, poichĂ© a volte la messa a punto non è all’altezza del suo intento e dell’intento dell’utente.
L’azienda sta cercando di migliorare i suoi metodi per allineare i sistemi di intelligenza artificiale ai valori umani, in particolare quando i sistemi diventano piĂą capaci. OpenAI intende consentire una maggiore personalizzazione degli utenti e ottenere piĂą input pubblici sul suo processo decisionale. L’obiettivo è quello di produrre uno strumento sicuro e utile che risponda alle esigenze dell’utente.
OpenAI ha sottolineato che il ruolo dei revisori umani è importante nello sviluppo di ChatGPT. L’azienda fornisce loro linee guida da seguire per valutare i possibili output del modello per una serie di input di esempio. Inoltre, in alcuni casi, OpenAI fornisce indicazioni ai revisori su un determinato tipo di output da non generare. Questo aiuta a ridurre il rischio che il modello produca output inappropriati o offensivi.
OpenAI sta lavorando per migliorare il comportamento dei sistemi di intelligenza artificiale, come ChatGPT, e per coinvolgere maggiormente il pubblico nel processo decisionale su come questi sistemi dovrebbero funzionare. L’azienda vuole produrre uno strumento sicuro e utile che risponda alle esigenze dell’utente e che sia a beneficio di tutta l’umanitĂ .