Meta ha recentemente sospeso il suo piano per addestrare sistemi di Intelligenza Artificiale (IA) in Europa, in seguito a numerosi reclami e all’opposizione sollevata dalle normative europee sulla privacy. Il cuore della questione è il Regolamento generale sulla protezione dei dati (GDPR), che richiede il consenso esplicito degli utenti per la raccolta e l’utilizzo dei loro dati personali. Questo obbligo complica notevolmente la possibilità di reperire dati per addestrare i modelli di IA, un passaggio fondamentale per lo sviluppo di tali tecnologie.
Negli ultimi giorni, undici stati membri dell’Unione Europea hanno depositato reclami contro Meta, sostenendo che la società non rispetta pienamente le regole previste dal GDPR. Anche il Regno Unito, nonostante sia fuori dall’UE, ha espresso preoccupazioni simili attraverso l’Information Commissioner’s Office (ICO) e la Irish Data Protection Commission (DPC), che hanno chiesto ulteriori chiarimenti.
La situazione si fa sempre più tesa: da una parte Meta, che in un comunicato ufficiale si è dichiarata delusa dall’atteggiamento delle autorità europee, dall’altra l’Unione Europea, decisa a mantenere un controllo rigoroso sui dati dei cittadini. La sospensione del programma di addestramento dell’IA rallenterà lo sviluppo di queste tecnologie nel contesto europeo, con impatti potenziali anche sull’innovazione e l’economia.
L’UE ha già risposto a queste nuove sfide attraverso l’AI Act, un progetto di legge mirato a regolamentare l’uso dell’Intelligenza Artificiale sul territorio europeo. Meta non è l’unica azienda coinvolta in questa stretta normativa: anche Google sta affrontando simili difficoltà con il suo progetto Bard.