a few quick updates about safety at openai:
— Sam Altman (@sama) August 1, 2024
as we said last july, we’re committed to allocating at least 20% of the computing resources to safety efforts across the entire company.
our team has been working with the US AI Safety Institute on an agreement where we would provide…
Sam Altman, CEO di OpenAI, ha recentemente condiviso importanti aggiornamenti sul tema della sicurezza nell’intelligenza artificiale. Durante una comunicazione su Twitter, Altman ha sottolineato l’impegno dell’azienda ad allocare almeno il 20% delle risorse informatiche a iniziative di sicurezza. Questa decisione riflette la crescente attenzione verso la necessità di sviluppare tecnologie che non solo siano innovative, ma anche sicure e responsabili.
OpenAI ha annunciato di aver collaborato con il US AI Safety Institute per stabilire un accordo che permetterà un accesso anticipato al prossimo modello fondamentale dell’azienda. Questa collaborazione ha l’obiettivo di avanzare la scienza delle valutazioni dell’IA, un passo cruciale per garantire che le tecnologie emergenti siano testate e valutate in modo rigoroso. Altman ha espresso entusiasmo per questa iniziativa, evidenziando la volontà di OpenAI di contribuire attivamente al dibattito sulla sicurezza nell’IA.
In un ulteriore passo verso una cultura aziendale aperta, Altman ha anche annunciato che OpenAI ha revocato le clausole di non denigrazione per i dipendenti attuali e passati. Questa mossa è vista come un modo per incoraggiare una comunicazione onesta e trasparente all’interno dell’azienda, permettendo ai dipendenti di esprimere preoccupazioni senza timori. “È cruciale che i nostri dipendenti si sentano a loro agio nel sollevare questioni importanti”, ha dichiarato Altman. Con queste iniziative, OpenAI dimostra di voler costruire un futuro più sicuro e responsabile per l’intelligenza artificiale.