Difendere la Frontiera Digitale: Microsoft Contro le Minacce Emergenti per le Intelligenze Artificiali

Microsoft si pone come pioniere nella scoperta e mitigazione delle minacce emergenti contro le protezioni delle IA. L’azienda ha recentemente annunciato nuovi strumenti disponibili o in arrivo su Microsoft Azure AI Studio, dedicati agli sviluppatori di applicazioni AI generative. Questi strumenti mirano a garantire la sicurezza e la fiducia nell’uso delle IA, fornendo trasparenza sulle capacità e limitazioni dei grandi modelli linguistici (LLM).

Microsoft si impegna attivamente nella ricerca sui rischi sociali legati all’IA e nella creazione di sistemi AI sicuri per il bene pubblico. L’azienda ha anche assunto l’impegno di identificare e mitigare rischi, condividendo informazioni su potenziali minacce. Ad esempio, Microsoft ha recentemente condiviso i principi che guidano le politiche e le azioni volte a contrastare le minacce avanzate persistenti statali, i manipolatori persistenti avanzati e i sindacati cybercriminali che utilizzano gli strumenti e le API AI dell’azienda.

L’articolo esamina da vicino le sfide e le vulnerabilità legate all’IA, focalizzandosi sulle minacce di manipolazione maliziosa dei LLM. Uno dei principali timori riguarda l’abuso dell’IA a fini maligni. Microsoft ha implementato diverse difese per prevenire tali abusi, ma i “jailbreak” possono ancora verificarsi quando attori malevoli cercano di aggirare tali protezioni. Questo comporta un costante sforzo nella rafforzatura delle difese per proteggere le applicazioni integrate con l’IA da comportamenti indesiderati.

Il rischio di manipolazione maliziosa si manifesta attraverso prompt maliziosi e contenuti avvelenati. Gli attacchi possono essere mirati a bypassare i sistemi di sicurezza, inducendo le IA a compiere azioni dannose. Microsoft ha sviluppato la tecnica del “Spotlighting” per neutralizzare i contenuti avvelenati, riducendo significativamente il tasso di successo degli attacchi. Inoltre, i ricercatori hanno identificato un nuovo tipo di attacco, denominato “Crescendo”, che sfrutta le debolezze dei LLM per ottenere risultati dannosi.

Per difendersi da tali minacce, Microsoft ha implementato una serie di mitigazioni, tra cui filtri prompt, ingegneria dei prompt di sistema e il monitoraggio continuo delle interazioni AI. L’azienda ha anche condiviso le proprie scoperte con altri fornitori di IA per garantire una risposta coordinata alle minacce emergenti.

Microsoft ha rilasciato PyRIT, un toolkit per l’identificazione dei rischi nelle IA generative, per consentire agli esperti di sicurezza e agli ingegneri di machine learning di individuare proattivamente le vulnerabilità nei propri sistemi AI.

Microsoft si impegna a proteggere gli AI systems, collaborando con la comunità per sviluppare soluzioni sicure e responsabili. L’azienda è ottimista sul futuro dell’IA generativa e continua a investire nella ricerca e nello sviluppo di strumenti per garantire la sicurezza delle IA.

______
How Microsoft discovers and mitigates evolving attacks against AI guardrails

NEWS AIopenmind su:

3D (4)6G (1)Accademia di Comunicazione (1)Acer (1)Adobe (22)Aeronautica (9)Africa (2)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (3)AGID (1)Amazon (17)Ambiente (1)Android (4)Animali (6)Animazione (3)Anziani (1)App (5)Apple (30)Archeologia (3)Architettura (4)Armi (3)Arredamento interni (2)Arte (24)Assistente vocale (2)Astronomia (2)Asus (1)AT&T (1)Audio (29)Autoapprendimento (1)Avatar (3)Aviazione (1)Avvocati (2)Aziende (11)Banca (3)Bard (3)Biblioteca (1)Bill Gates (1)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)Canva (2)Cattolicesimo (3)Certificazioni (1)Cesintes (1)chataudio (1)Chatbot IA (39)Chip (2)Cina (49)Cinema (3)Claude (5)Clima (2)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (1)Compagnie aeree (1)Computer quantistici (27)Computer Vision (3)Comuni italiani (1)Comunicazione (7)Comunicazioni vocali (2)Concorso bellezza AI (1)Contabilità (1)Convegno (12)Copilot (5)Copyright (5)Criptovalute (1)Cybersecurity (1)Dalle-2 (2)Dark web (2)Dating (1)Deepfake (2)Design automobilistico (2)Design Industriale (1)Diritti Autore (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)Editing fotografico (2)Editoria (7)ENEA (2)Esercito (2)Etica (111)Europol (1)Eventi (4)Evento (7)Facebook (3)FakeNews (16)Falegnameria (1)Fauna selvatica (1)Film (2)Finanza (6)Finanziamenti Italia (3)Firefly (3)Formazione (7)Fotografia (75)Francia (1)Free lance (1)G7 (1)Gaming (1)Garante privacy (16)Giappone (8)Giochi (5)Giornalismo (10)Giustizia (1)Google (163)Governo (7)Governo Italiano (1)Grafica (2)Guerra (10)Guida autonoma (3)Hong Kong (1)Hugging Face (2)IBM (6)Illustrazioni (1)iMessage (1)Immobiliare (1)India (3)Indossabili (2)Influencer (1)Informazione (6)Inghilterra (4)INPS (2)Intel (3)Istruzione (16)Jailbreaking (1)Lavoro (42)Libri (3)Linguistica computazionale (6)Linkedin (4)Maltrattamento infantile (1)Marina (1)Marketing (14)Medicina (23)Mercedes-Benz (1)Meta (39)Metaverso (15)Microsoft (109)Midjourney (11)Mobilità sostenibile (1)Moda (5)Modelli AI (5)Motori di Ricerca (2)Mozilla (2)Musica (24)Nato (1)Natura (1)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (23)Occhiali (2)Occhiali Intelligenti (1)Occhiali Smart (1)Oculistica (1)OMS (1)ONU (1)Open Source (2)OpenAI (137)Opera (3)Opera Browser (1)Oppo (2)Oracle (1)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Pianeta (1)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (2)Privacy (17)Programmazione (8)Prompt (5)Pubblicazione (1)Pubblicità (15)QR Code (1)Qualcomm (3)Ray-Ban (2)Realtà mista (2)Reddit (1)Relazioni internazionali (2)Relazioni Pubbliche (3)Religione (1)Report (58)Ricerca scientifica (7)Riconoscimento emotivo (1)Risorse online (100)Ristorazione (2)Robotica (30)Salute (3)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

L’AI e il problema dei dati errati

OpenAI, l'azienda dietro il famoso chatbot ChatGPT, è al centro di un'accesa polemica riguardante la gestione delle informazioni personali nell'Unione Europea. Secondo il GDPR,...

Copilot Workspace: Il Futuro della Programmazione

https://www.youtube.com/watch?v=pkotufZchjE https://www.youtube.com/watch?v=L5Xny6yehUg https://www.youtube.com/watch?v=Zv6TuVzcRdY ____GitHub Copilot Workspace: Welcome to the Copilot-native developer environment

Mi sono imparato la scienza?

Fahrenheit.iit e il potere della narrazione. Mercoledì 13 marzo, ore 17:00 in Accademia di Comunicazione e in streaming Registrati La narrazione può essere la lama...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines