Adobe finisce al centro di una nuova proposta di class action negli Stati Uniti: l’accusa è di aver utilizzato libri piratati per addestrare un modello di intelligenza artificiale. Il caso riaccende il dibattito su copyright, trasparenza dei dataset e responsabilità delle big tech nell’era della GenAI.
L’adozione accelerata dell’intelligenza artificiale sta portando con sé non solo innovazione, ma anche un’ondata crescente di contenziosi legali. Adobe è l’ultima grande azienda tecnologica a essere coinvolta. Una proposta di azione collettiva, presentata da Elizabeth Lyon, scrittrice statunitense, sostiene che l’azienda avrebbe utilizzato versioni pirata di libri protetti da copyright per addestrare SlimLM, un modello linguistico leggero impiegato in applicazioni di assistenza documentale.
Secondo la denuncia, SlimLM sarebbe stato pre-addestrato sul dataset SlimPajama-627B, rilasciato nel 2023 da Cerebras come raccolta open source. Tuttavia, SlimPajama deriverebbe a sua volta da RedPajama, che includerebbe Books3, un archivio di circa 191.000 libri spesso citato in controversie legali per l’uso non autorizzato di opere protette. Lyon afferma che anche i suoi testi sarebbero presenti in questi dati di addestramento, senza consenso né compenso.
Il caso Adobe si inserisce in un quadro più ampio. Nel 2025 diverse aziende – tra cui Apple e Salesforce – sono state accusate di pratiche simili. A settembre, Anthropic ha raggiunto un accordo da circa 1,5 miliardi di dollari con un gruppo di autori, un precedente considerato cruciale per l’intero settore.
Per l’industria creativa e tecnologica, la questione è ormai strutturale: i modelli di IA richiedono enormi volumi di dati, ma l’origine e la liceità di questi dataset stanno diventando un nodo giuridico ed etico centrale. Le prossime sentenze potrebbero ridefinire le regole dell’addestramento dei modelli e i rapporti tra innovazione, diritti d’autore e sostenibilità economica della creatività.
— Approfondimento | Cronologia essenziale
- 2020–2022: nascita di grandi dataset testuali non ufficiali come Books3.
- Giugno 2023: Cerebras rilascia SlimPajama come dataset open source.
- 2024–2025: cause contro Apple, Salesforce e Anthropic per uso di dati protetti.
- Settembre 2025: accordo Anthropic–autori da 1,5 miliardi di dollari.
Fonti istituzionali e affidabili
- Reuters: https://www.reuters.com
- U.S. Copyright Office: https://www.copyright.gov
- Electronic Frontier Foundation (EFF): https://www.eff.org
Consigli di approfondimento
- OECD – AI e proprietà intellettuale: https://www.oecd.org
- WIPO – Copyright and AI: https://www.wipo.int
Abstract – Pro, rischi e implicazioni future
Pro: l’IA accelera produttività e accesso ai contenuti.
Rischi: sfruttamento del lavoro creativo, opacità dei dataset, concentrazione del potere tecnologico.
Conseguenze future: maggiore regolazione, obblighi di trasparenza e nuovi modelli di compensazione per autori e creativi, con un impatto diretto sull’equilibrio sociale tra innovazione e diritti.







