La pubblicazione della “System Card” per il modello GPT-4o da parte di OpenAI rappresenta un passo significativo nel campo della sicurezza dell’intelligenza artificiale. Questo report dettagliato mette in luce il lavoro svolto per garantire la sicurezza del modello prima della sua distribuzione, con un focus particolare sulla valutazione dei rischi potenziali e le misure di mitigazione adottate. La metodologia include una rigorosa valutazione da parte di team esterni e un esame dei rischi di frontiera secondo il Preparedness Framework.
Il GPT-4o è un modello omni autoregressivo in grado di accettare input in forma di testo, audio, immagini e video, e di generare output nelle stesse modalità. Questa versatilità è accompagnata da una particolare attenzione alle capacità audio, che rappresentano una delle principali novità rispetto ai modelli precedenti. Tra i rischi valutati, vi sono l’identificazione del parlante, la generazione non autorizzata di voci, e il potenziale per la creazione di contenuti protetti da copyright.
I risultati indicano che il rischio di Preparedness associato alla modalità vocale del GPT-4o è considerato gestibile, con tre delle quattro categorie del Preparedness Framework classificate come “basse”. La modalità di persuasione, tuttavia, ha raggiunto un punteggio di confine “medio”, il che ha portato a ulteriori controlli e mitigazioni da parte del Safety Advisory Group.
Questo processo di valutazione e mitigazione rappresenta un modello di best practice nell’ambito della sicurezza AI, e il rilascio della System Card di GPT-4o, insieme alla scorecard del Preparedness Framework, offre una valutazione completa delle capacità e dei rischi associati al nuovo modello. OpenAI continua a dimostrare il suo impegno verso lo sviluppo responsabile dell’intelligenza artificiale, in linea con gli impegni assunti volontariamente con la Casa Bianca.