OpenAI non sta ancora addestrando GPT-5, come confermato da Sam Altman, co-fondatore e CEO della società. Questa decisione arriva dopo mesi di preoccupazioni espresse da esponenti del settore e accademici riguardo all’avanzamento rapido dei modelli di linguaggio di dimensioni considerevoli sviluppati da Sam Altman. L’impegno di non lavorare sul successore di GPT-4 “per un certo periodo” è stato annunciato dalla startup sostenuta da Microsoft.
Altman ha dichiarato durante una conferenza organizzata dal giornale indiano Economic Times che prima di iniziare a lavorare sul nuovo modello c’è ancora molto lavoro da fare. Sebbene siano in corso idee innovative per il progetto, l’azienda è ancora lontana dall’iniziare l’addestramento di GPT-5.
A fine marzo, più di 1.100 firmatari, tra cui Elon Musk e Steve Wozniak, hanno sottoscritto una lettera aperta che chiede a tutti i laboratori di intelligenza artificiale di interrompere immediatamente per almeno sei mesi l’addestramento di sistemi più potenti di GPT-4. Altman ha sottolineato che la lettera mancava di una comprensione tecnica completa sulla necessità della pausa, ma ha affermato che OpenAI non ha ancora iniziato ad addestrare GPT-5 e non ha pianificato di farlo per “un certo periodo”.
Durante l’intervista, Altman ha respinto nuovamente le preoccupazioni espresse da alcuni dei maggiori esperti di intelligenza artificiale, affermando che la startup sta già valutando i potenziali pericoli attraverso misure più significative, come audit esterni, red-teaming e test di sicurezza.
Altman ha anche dichiarato di essere contrario a regolamentare le piccole startup di intelligenza artificiale, affermando che l’unica regolamentazione richiesta è quella per se stessi e per le aziende di maggiore dimensione.
Il viaggio di Altman in India fa parte del suo impegno nel incontrare con decision-maker e attori del settore a livello globale, al fine di creare fiducia nella volontà di OpenAI di collaborare con i regolatori. Durante questi incontri, Altman incoraggia proattivamente i legislatori a riflettere seriamente sugli abusi potenziali e altri svantaggi della proliferazione dell’intelligenza artificiale, al fine di stabilire norme di sicurezza per ridurre al minimo gli incidenti indesiderati.
In particolare, Altman sta sollecitando una riflessione approfondita sui possibili abusi e sulle conseguenze negative legate alla diffusione dell’intelligenza artificiale, al fine di stabilire regole e limiti adeguati per minimizzare eventuali incidenti indesiderati.
L’impegno di OpenAI nel non addestrare GPT-5 al momento è una risposta diretta alle preoccupazioni sollevate dalla comunità e dimostra la volontà dell’azienda di prendere sul serio la sicurezza e l’etica nell’ambito dell’intelligenza artificiale. Altman sta cercando di costruire fiducia sia tra i legislatori che tra gli attori del settore, affinché si sviluppino meccanismi di controllo e regolamentazione che proteggano l’interesse pubblico.
L’attenzione di OpenAI non è solo rivolta ai grandi modelli di linguaggio, ma anche alla collaborazione con le autorità di regolamentazione per garantire che l’intelligenza artificiale venga utilizzata in modo responsabile e sicuro. L’azienda sta investendo risorse significative nell’effettuare audit esterni e test di sicurezza per mitigare i potenziali rischi associati all’uso delle loro tecnologie.
OpenAI si impegna a lavorare sodo per sviluppare modelli di intelligenza artificiale avanzati, come GPT-5, ma allo stesso tempo riconosce l’importanza di garantire la sicurezza, l’etica e la regolamentazione adeguata per evitare abusi e rischi indesiderati. L’obiettivo principale di Altman e dell’intera squadra di OpenAI è di guidare lo sviluppo dell’intelligenza artificiale in modo responsabile, collaborativo e orientato al beneficio dell’umanità.
________________
“OpenAI still not training GPT-5, Sam Altman says“