With £100 million for our AI Taskforce, we are dedicating more funding to AI safety than any other country in the world.
— Rishi Sunak (@RishiSunak) June 12, 2023
We’ll also work with @DeepMind, @OpenAI and @Anthropic who will give us early or priority access to models for research and safety purposes. pic.twitter.com/SKypEisfXX
Il primo ministro britannico, Rishi Sunak, ha annunciato che OpenAI, Google DeepMind e Anthropic garantiranno al Regno Unito un accesso anticipato ai loro modelli di intelligenza artificiale (IA) per la ricerca sulla valutazione e la sicurezza.
Questo annuncio arriva dopo l’intenzione del governo britannico di ospitare un summit globale sulla sicurezza dell’IA quest’autunno.
Sunak si è impegnato a investire £100 milioni per una task force di esperti in sicurezza dell’IA, una cifra superiore a quella di qualsiasi altro governo. Il focus principale di questa task force sarà sui modelli fondamentali di intelligenza artificiale.
Il primo ministro ha sottolineato la collaborazione con i laboratori all’avanguardia di Google DeepMind, OpenAI e Anthropic, che si sono impegnati a fornire accesso anticipato o prioritario ai modelli per la ricerca e la sicurezza. Sunak ha anche annunciato la prossima realizzazione del primo Summit sulla sicurezza globale dell’IA nel Regno Unito, paragonandolo alla conferenza COP sul clima.
Questo cambio di approccio del governo britannico verso la sicurezza dell’IA è stato influenzato dagli avvertimenti delle grandi aziende del settore e delle figure dell’industria sull’importanza di regolamentare adeguatamente la tecnologia per evitare rischi esistenziali.
Mentre il Regno Unito si sta posizionando come leader nella ricerca sulla sicurezza dell’IA, c’è anche il rischio che si renda vulnerabile alla dominazione dell’industria nell’ambito di questi sforzi.
Gli esperti di etica dell’IA hanno sottolineato l’importanza di coinvolgere ricercatori indipendenti, gruppi della società civile e gruppi a rischio di danni causati dall’automazione, oltre alle aziende di intelligenza artificiale e agli accademici locali. L’obiettivo è produrre risultati robusti ed affidabili nella sicurezza dell’IA, non solo ottenere un consenso di immagine pubblica.
___________
“OpenAI, DeepMind and Anthropic to give UK early access to foundational models for AI safety research“