La sicurezza nell’uso dell’Intelligenza Artificiale è un aspetto critico della missione di OpenAI. L’azienda è impegnata a mantenere l’AI potente e sicura per tutti, poiché i propri strumenti offrono molti vantaggi alle persone in tutto il mondo. Tuttavia, come per qualsiasi tecnologia, ci sono rischi reali associati, quindi si lavora costantemente per garantire la sicurezza a tutti i livelli del sistema.
Per creare sistemi di AI sempre più sicuri, OpenAI conduce test rigorosi e coinvolge esperti esterni per il feedback. Dopo il completamento del training del modello GPT-4, l’azienda ha lavorato per più di 6 mesi per renderlo ancora più sicuro e allineato prima di renderlo pubblico. Inoltre, i sistemi di sicurezza e monitoraggio ampi sono integrati nei sistemi di OpenAI.
OpenAI ritiene che i sistemi di AI potenti dovrebbero essere soggetti a rigorose valutazioni di sicurezza e che la regolamentazione sia necessaria per garantire la loro adozione. Si ritiene che l’apprendimento dall’uso del mondo reale sia una componente critica per creare e rilasciare sistemi di AI sempre più sicuri nel tempo. OpenAI rilascia gradualmente nuovi sistemi di AI, con ampie salvaguardie, a un gruppo sempre più ampio di persone e apporta continuamente miglioramenti basati sulle lezioni apprese.
Proteggere i bambini è uno dei principali obiettivi dell’azienda e, per questo motivo, si richiede che gli utenti dei propri strumenti di AI abbiano 18 anni o più, o 13 anni o più con l’approvazione dei genitori. L’azienda sta anche valutando opzioni di verifica dell’età. OpenAI non permette l’uso della propria tecnologia per generare contenuti violenti, odiosi, molesti o per adulti, tra le altre categorie. Il modello GPT-4 è stato sviluppato per essere meno incline a rispondere alle richieste di contenuti non consentiti rispetto al modello GPT-3.5.
Per quanto riguarda la privacy, OpenAI lavora per rimuovere le informazioni personali dal set di dati di training dove possibile e per rispondere alle richieste di cancellazione delle informazioni personali dai propri sistemi. L’azienda utilizza i dati per rendere i modelli più utili per le persone e non per venderli o per creare profili delle persone.
L’accuratezza dei fatti è una priorità importante per OpenAI e gli sviluppatori di AI in generale. L’azienda utilizza i feedback degli utenti sui risultati errati di ChatGPT come fonte principale di dati per migliorare l’accuratezza dei fatti di GPT-4.