Il U.S. AI Safety Institute, parte del Dipartimento del Commercio degli Stati Uniti, ha firmato accordi pionieristici con le aziende di intelligenza artificiale Anthropic e OpenAI per promuovere la ricerca, il testing e la valutazione della sicurezza dei modelli IA. Questi accordi, i primi del loro genere, mirano a facilitare una collaborazione formale per garantire lo sviluppo di IA sicure e affidabili, avanzando così l’innovazione tecnologica in modo responsabile.
I Memorandum of Understanding firmati con ciascuna azienda prevedono che l’Istituto di Sicurezza dell’IA abbia accesso ai nuovi modelli sviluppati da Anthropic e OpenAI, sia prima che dopo la loro diffusione pubblica. Ciò consentirà di valutare le capacità e i rischi legati alla sicurezza, nonché di sviluppare strategie per mitigare tali rischi.
Elizabeth Kelly, direttrice dell’Istituto, ha sottolineato l’importanza della sicurezza nel guidare l’innovazione tecnologica. “Questi accordi sono solo l’inizio, ma rappresentano una tappa fondamentale per il futuro dell’intelligenza artificiale”, ha dichiarato.
Inoltre, l’Istituto collaborerà strettamente con l’UK AI Safety Institute per fornire feedback su potenziali miglioramenti dei modelli di IA, rafforzando così l’impegno internazionale nella sicurezza dell’intelligenza artificiale. Questa collaborazione riflette l’eredità del NIST, che da oltre 120 anni si occupa di scienza e standard tecnologici.