Microsoft ha annunciato un’importante novità nel campo della sicurezza dei contenuti generati dall’intelligenza artificiale: l’introduzione della funzione di correzione all’interno del sistema di rilevamento delle “allucinazioni” dell’AI. Questa nuova capacità, disponibile nella piattaforma Azure AI Content Safety, rappresenta un significativo passo avanti per garantire maggiore accuratezza e affidabilità nei contenuti generati da modelli linguistici di intelligenza artificiale.
La funzione di rilevamento delle allucinazioni, introdotta a marzo, consente già di identificare contenuti privi di fondamento nei risultati prodotti dall’AI. Tuttavia, Microsoft ha risposto alle richieste dei suoi clienti, che desideravano una soluzione più avanzata rispetto alla semplice eliminazione del contenuto scorretto. La nuova funzionalità di correzione non solo individua gli errori, ma li rivede e li corregge in tempo reale, migliorando così l’esperienza utente e permettendo un utilizzo più sicuro dell’AI anche in ambiti critici come la medicina.
La correzione avviene confrontando i contenuti generati dall’AI con documenti o fonti di dati affidabili. Se una frase risulta non conforme al contesto, il sistema la modifica per garantire che sia coerente con le informazioni corrette. Questa innovazione, secondo Microsoft, aiuterà a superare le limitazioni imposte dai sistemi di filtraggio tradizionali e permetterà un impiego più ampio dell’intelligenza artificiale in settori sensibili.
Con l’aumento della dipendenza da strumenti generativi, la necessità di garantire contenuti accurati e verificabili è diventata prioritaria. Microsoft, con la sua nuova funzione di correzione, spera di ridurre i rischi legati alle cosiddette “allucinazioni” dell’AI e di promuovere una maggiore fiducia verso queste tecnologie in rapida crescita.