Due anni di lavoro accademico svaniti in pochi secondi. È quanto accaduto a Marcel Bucher, professore all’Università di Colonia, dopo aver disattivato il “consenso dati” su ChatGPT. Il caso, raccontato su Nature, solleva interrogativi cruciali su affidabilità, governance dei dati e responsabilità delle piattaforme di intelligenza artificiale.
L’episodio, riportato da Victor Tangermann su Futurismo (24 gennaio 2026), è diventato virale. Bucher utilizzava ChatGPT Plus come “assistente quotidiano” per bozze, revisioni, domande di finanziamento, lezioni ed esami. Convinto che la disattivazione del consenso non avrebbe intaccato l’accesso ai contenuti, ha scoperto invece che l’intero archivio di chat era stato cancellato. “Non c’era alcuna opzione di annullamento. Solo una pagina vuota”, ha scritto.
Il caso ha generato reazioni contrastanti: schadenfreude sui social, critiche per la mancanza di backup locali, ma anche solidarietà. Roland Gromes, coordinatore didattico dell’Università di Heidelberg, ha parlato di “flusso di lavoro profondamente imperfetto”, riconoscendo però che “tutti possiamo essere ingenui”.
Bucher non equipara l’IA all’accuratezza fattuale e riconosce i limiti dei modelli generativi, incluse le allucinazioni. Tuttavia, si è affidato alla “continuità e apparente stabilità” della piattaforma. Una fiducia oggi messa in discussione in un contesto già critico: riviste sommerse da articoli generati dall’IA, peer review compromessa, citazioni inesistenti, e la nascita di “paper mill” automatizzate, come denunciato da The Atlantic.
OpenAI, interpellata da Nature, ha ribadito che le chat eliminate non sono recuperabili e che viene mostrato un messaggio di conferma prima della cancellazione. Ha inoltre raccomandato agli utenti di conservare backup personali.
Il punto non è solo tecnico. L’episodio evidenzia una fragilità sistemica: l’assenza di garanzie standard di conservazione e portabilità dei dati per strumenti ormai integrati nei flussi di lavoro professionali. Senza tutele chiare, l’adozione massiva dell’IA rischia di trasformarsi in una nuova forma di dipendenza infrastrutturale.
Approfondimento – Cronologia essenziale (con fonti)
- 24 gen 2026 – Caso Bucher pubblicato su Nature
https://www.nature.com - 24 gen 2026 – Articolo di Victor Tangermann su Futurismo
https://futurism.com - Gen 2026 – Inchiesta su IA e peer review, The Atlantic
https://www.theatlantic.com
Consigli di approfondimento
- Linee guida COPE su integrità nella ricerca: https://publicationethics.org
- OECD AI Principles: https://oecd.ai
- NIST AI RMF: https://www.nist.gov/ai
Abstract – Pro e rischi
Pro: aumento di produttività, supporto alla scrittura, rapidità di sintesi.
Rischi: perdita di dati, dipendenza da piattaforme, allucinazioni, inquinamento scientifico, erosione della fiducia.
Conseguenze future: necessità di standard di portabilità/backup, audit di trasparenza, alfabetizzazione digitale avanzata e governance etica per evitare nuove asimmetrie di potere.







