OpenAI ha poco più di una settimana per adeguarsi alle leggi europee sulla protezione dei dati a seguito del blocco temporaneo in Italia e di una serie di indagini in altri paesi dell’UE. Se fallisce, potrebbe affrontare multe pesanti, essere costretta a eliminare i dati o persino essere vietata.
Tuttavia, gli esperti hanno detto a MIT Technology Review che sarà quasi impossibile per OpenAI rispettare le regole. Ciò è dovuto al modo in cui i dati utilizzati per addestrare i suoi modelli AI sono stati raccolti: aspirando i contenuti presenti in rete.
In sviluppo AI, il paradigma dominante è che più dati di addestramento ci sono, meglio è. Il modello GPT-2 di OpenAI aveva un set di dati costituito da 40 gigabyte di testo. GPT-3, su cui è basato ChatGPT, è stato addestrato su 570 GB di dati. OpenAI non ha condiviso quanto grande sia il set di dati per il suo ultimo modello, GPT-4.
Ma quella fame di modelli più grandi sta tornando indietro alla società. Nelle ultime settimane, diverse autorità di protezione dei dati occidentali hanno avviato indagini su come OpenAI raccoglie e elabora i dati che alimentano ChatGPT. Credono che abbia raccolto dati personali delle persone, come nomi o indirizzi e-mail, e li abbia utilizzati senza il loro consenso.
L’autorità italiana ha bloccato l’uso di ChatGPT come misura precauzionale e i regolatori dei dati francesi, tedeschi, irlandesi e canadesi stanno indagando su come il sistema OpenAI raccoglie e utilizza i dati. La European Data Protection Board, l’organizzazione ombrello per le autorità di protezione dei dati, sta anche istituendo una task force a livello di UE per coordinare indagini ed enforcement intorno a ChatGPT.
L’Italia ha dato a OpenAI fino al 30 aprile per conformarsi alla legge. Ciò significherebbe che OpenAI dovrebbe chiedere il consenso alle persone per l’aspirazione dei loro dati, o dimostrare di avere un “legittimo interesse” a raccoglierli. OpenAI dovrà anche spiegare alle persone come ChatGPT utilizza i loro dati e dar loro il potere di correggere eventuali errori o di far eliminare i loro dati se lo desiderano, e di opporsi all’uso del programma.
Se OpenAI non può convincere le autorità che le sue pratiche di utilizzo dei dati sono legali, potrebbe essere vietata in paesi specifici o addirittura in tutta l’Unione europea. Potrebbe anche affrontare multe consistenti e potrebbe persino essere costretta a eliminare i modelli e i dati utilizzati per addestrarli, dice Alexis Leautier, un esperto di AI presso l’agenzia francese di protezione dei dati CNIL.
_________
“OpenAI’s hunger for data is coming back to bite it“