La Commissione Europea ha stabilito che gli agenti di intelligenza artificiale non possono partecipare alle sue riunioni. La misura evidenzia le crescenti preoccupazioni etiche e di trasparenza associate all’uso degli assistenti virtuali autonomi.
Con un cambiamento significativo nelle prassi digitali istituzionali, la Commissione Europea ha vietato la partecipazione degli agenti di intelligenza artificiale alle proprie riunioni online. La misura è stata applicata per la prima volta in aprile durante una call con uffici europei dedicati alle politiche digitali, tramite una chiara indicazione: “Non sono ammessi agenti di intelligenza artificiale”.
Gli agenti IA, evoluzione dei chatbot tradizionali come ChatGPT, sono strumenti capaci di agire autonomamente in ambienti virtuali, svolgendo compiti multipli per conto dell’utente. Tra le loro funzioni più diffuse: prendere appunti, rispondere a domande o rappresentare persone in meeting digitali.
Secondo la Commissione, gli agenti operano in base a “regole predefinite” ma agiscono con un alto grado di autonomia, ponendo interrogativi su responsabilità, tracciabilità delle decisioni e integrità dei processi decisionali pubblici. Il provvedimento si inserisce in un contesto più ampio di attenzione normativa: l’AI Act, approvato di recente, impone obblighi stringenti ai modelli IA ad alto rischio.
OpenAI, Microsoft e la francese Mistral sono tra le aziende che stanno già testando agenti IA avanzati. Tuttavia, in assenza di una regolamentazione dedicata, Bruxelles sceglie una linea prudente.
Breve cronologia e fonti
- 31 marzo 2025 – Pubblicazione del pacchetto UE sui mondi virtuali: link esterno ↗
- Gennaio 2025 – OpenAI lancia Operator, un agente IA autonomo
- Aprile 2025 – Prime applicazioni del divieto durante riunioni istituzionali
Consigli di approfondimento
- AI Act: testo completo del regolamento europeo sull’intelligenza artificiale ↗
- Guida dell’OCSE sulla gestione algoritmica nei luoghi di lavoro ↗
Abstract: Pro e rischi etici e sociali
Pro: tutela della trasparenza nei processi decisionali pubblici; prevenzione di usi impropri degli agenti IA; affermazione del principio umano-centrico.
Rischi: rischio di rallentamento nell’adozione dell’innovazione digitale nella pubblica amministrazione; esclusione di strumenti potenzialmente utili per l’efficienza; mancanza di un quadro normativo specifico.
Possibili conseguenze: maggiore attenzione etica a livello europeo; impulso verso standard internazionali sull’uso di IA in contesti istituzionali; crescita di una governance responsabile e condivisa dell’intelligenza artificiale.
