OpenAI alla ricerca di un equilibrio: come migliorare i sistemi di intelligenza artificiale e ottenere un’AI sicura e responsabile

OpenAI sta cercando di migliorare il comportamento dei sistemi di intelligenza artificiale come ChatGPT, e vuole coinvolgere maggiormente il pubblico nel processo decisionale su come questi sistemi dovrebbero funzionare.

In un post del 16 febbraio 2023 “How should AI systems behave, and who should decide?“, l’azienda ha esaminato come viene modellato il comportamento di ChatGPT, i suoi piani per migliorarlo e il ruolo dei revisori e delle politiche di OpenAI.

OpenAI ha affermato che la sua missione è garantire che l’intelligenza artificiale generale (AGI) sia a beneficio di tutta l’umanità. Gli AGI sono sistemi altamente autonomi che superano gli umani nel lavoro economicamente più prezioso. Per raggiungere questo obiettivo, l’azienda sta riflettendo molto sul comportamento dei sistemi di intelligenza artificiale costruiti prima dell’AGI e sul modo in cui tale comportamento viene determinato.

Il processo di creazione di ChatGPT è composto da due fasi: pre-formazione e messa a punto. Nella fase di pre-formazione, il modello impara a prevedere la parola successiva in una frase, a partire da un ampio insieme di dati non programmati in modo esplicito. Questa fase è seguita dalla messa a punto, in cui l’azienda restringe il comportamento del sistema. OpenAI ha ammesso che il processo è imperfetto, poiché a volte la messa a punto non è all’altezza del suo intento e dell’intento dell’utente.

L’azienda sta cercando di migliorare i suoi metodi per allineare i sistemi di intelligenza artificiale ai valori umani, in particolare quando i sistemi diventano più capaci. OpenAI intende consentire una maggiore personalizzazione degli utenti e ottenere più input pubblici sul suo processo decisionale. L’obiettivo è quello di produrre uno strumento sicuro e utile che risponda alle esigenze dell’utente.

OpenAI ha sottolineato che il ruolo dei revisori umani è importante nello sviluppo di ChatGPT. L’azienda fornisce loro linee guida da seguire per valutare i possibili output del modello per una serie di input di esempio. Inoltre, in alcuni casi, OpenAI fornisce indicazioni ai revisori su un determinato tipo di output da non generare. Questo aiuta a ridurre il rischio che il modello produca output inappropriati o offensivi.

OpenAI sta lavorando per migliorare il comportamento dei sistemi di intelligenza artificiale, come ChatGPT, e per coinvolgere maggiormente il pubblico nel processo decisionale su come questi sistemi dovrebbero funzionare. L’azienda vuole produrre uno strumento sicuro e utile che risponda alle esigenze dell’utente e che sia a beneficio di tutta l’umanità.

NEWS AIopenmind su:

3D (4)6G (1)Accademia di Comunicazione (1)Acer (1)Adobe (20)Aeronautica (8)Africa (2)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (3)AGID (1)Amazon (17)Ambiente (1)Android (4)Animali (6)Animazione (3)Anziani (1)App (5)Apple (28)Archeologia (3)Architettura (4)Armi (3)Arredamento interni (2)Arte (24)Assistente vocale (2)Astronomia (2)AT&T (1)Audio (28)Autoapprendimento (1)Avatar (3)Aviazione (1)Avvocati (2)Aziende (11)Banca (3)Bard (3)Biblioteca (1)Bill Gates (1)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (1)Calcio (2)Canva (2)Cattolicesimo (3)Certificazioni (1)Cesintes (1)chataudio (1)Chatbot IA (38)Chip (2)Cina (49)Cinema (3)Claude (5)Clima (2)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (1)Compagnie aeree (1)Computer quantistici (27)Computer Vision (3)Comuni italiani (1)Comunicazione (7)Comunicazioni vocali (2)Concorso bellezza AI (1)Contabilità (1)Convegno (10)Copilot (5)Copyright (5)Criptovalute (1)Cybersecurity (1)Dalle-2 (2)Dark web (2)Dating (1)Deepfake (2)Design automobilistico (2)Design Industriale (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)Editing fotografico (2)Editoria (7)ENEA (2)Esercito (2)Etica (110)Europol (1)Eventi (4)Evento (7)Facebook (3)FakeNews (15)Falegnameria (1)Fauna selvatica (1)Film (2)Finanza (6)Finanziamenti Italia (3)Firefly (3)Formazione (7)Fotografia (72)Francia (1)Free lance (1)G7 (1)Gaming (1)Garante privacy (16)Giappone (8)Giochi (5)Giornalismo (10)Giustizia (1)Google (160)Governo (7)Grafica (2)Guerra (10)Guida autonoma (3)Hong Kong (1)Hugging Face (1)IBM (6)Illustrazioni (1)iMessage (1)Immobiliare (1)India (3)Indossabili (2)Influencer (1)Informazione (6)Inghilterra (3)INPS (2)Intel (3)Istruzione (16)Jailbreaking (1)Lavoro (41)Libri (3)Linguistica computazionale (6)Linkedin (4)Maltrattamento infantile (1)Marina (1)Marketing (14)Medicina (21)Mercedes-Benz (1)Meta (35)Metaverso (15)Microsoft (104)Midjourney (11)Mobilità sostenibile (1)Moda (5)Motori di Ricerca (2)Mozilla (2)Musica (24)Nato (1)Natura (1)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (23)Occhiali (2)Occhiali Intelligenti (1)Occhiali Smart (1)Oculistica (1)OMS (1)ONU (1)Open Source (2)OpenAI (132)Opera (3)Opera Browser (1)Oppo (2)Oracle (1)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Pianeta (1)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (2)Privacy (17)Programmazione (7)Prompt (5)Pubblicazione (1)Pubblicità (15)QR Code (1)Qualcomm (1)Ray-Ban (1)Realtà mista (2)Reddit (1)Relazioni internazionali (2)Relazioni Pubbliche (3)Religione (1)Report (54)Ricerca scientifica (7)Riconoscimento emotivo (1)Risorse online (100)Ristorazione (2)Robotica (28)Salute (3)Samsung (4)Sanità (15)Satelliti (2)Sceneggiatura (1)Semiconduttori (2)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Meta AI e il potere delle immagini in tempo reale

Nell'era digitale in cui la tecnologia si evolve ad una velocità sorprendente, un nuovo assistente virtuale sta facendo parlare di sé: Meta AI. Grazie...

Mi sono imparato la scienza?

Fahrenheit.iit e il potere della narrazione. Mercoledì 13 marzo, ore 17:00 in Accademia di Comunicazione e in streaming Registrati La narrazione può essere la lama...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines