Google DeepMind ha presentato CodeMender, un nuovo agente di intelligenza artificiale progettato per rilevare vulnerabilità nei software e correggerle automaticamente. Lo strumento può generare patch o riscrivere porzioni di codice, con l’obiettivo di ridurre drasticamente i tempi di risposta agli attacchi informatici e prevenire exploit su larga scala.
L’iniziativa si inserisce in una strategia più ampia di Google per rafforzare la sicurezza digitale. Parallelamente, l’azienda ha annunciato il lancio dell’AI Vulnerability Reward Program (AI VRP), un programma di bug bounty che offre premi fino a 20.000 dollari per chi individua vulnerabilità nei sistemi AI.
Secondo Google, CodeMender potrebbe diventare un alleato fondamentale per sviluppatori e aziende, contribuendo a ridurre i costi delle violazioni informatiche, stimati a livello globale in oltre 9 trilioni di dollari nel 2024 (dati Cybersecurity Ventures). Tuttavia, gli esperti avvertono che l’automazione nella correzione del codice deve essere monitorata: un errore nelle patch generate dall’IA potrebbe introdurre nuove vulnerabilità, creando rischi aggiuntivi.
Il rilascio di CodeMender riflette la crescente competizione tra i giganti tecnologici nel campo della sicurezza informatica basata su AI, in un contesto in cui i cyberattacchi diventano sempre più sofisticati.
Approfondimento e cronologia
- Bug bounty programs: introdotti da Netscape nel 1995, oggi sono adottati da colossi come Microsoft, Meta e Apple.
- DeepMind e AI per la sicurezza: già nel 2022 l’azienda aveva sperimentato modelli AI per il rilevamento automatico di falle nel codice.
- Costi dei cyberattacchi: Cybersecurity Ventures prevede una crescita dei danni globali da crimine informatico fino a 10,5 trilioni di dollari entro il 2025.
- Google AI VRP
Consigli di approfondimento
- ENISA – European Union Agency for Cybersecurity
- NIST – National Institute of Standards and Technology
- Google Security Blog
Abstract
CodeMender rappresenta un passo avanti nella cybersecurity automatizzata: i pro includono la velocizzazione delle correzioni, la riduzione dei rischi per utenti e imprese e l’incentivo alla collaborazione etica tramite l’AI VRP. I controriguardano l’affidabilità delle patch generate dall’IA, la possibilità di sfruttamento da parte di attori malevoli e i dilemmi etici legati al controllo umano. In prospettiva, l’integrazione di agenti AI autonomi nella sicurezza potrebbe rivoluzionare il settore, ma richiederà regole chiare e supervisione costante.







