Nel 2026 un gruppo di candidati ha intentato una causa contro Eightfold AI, accusando la piattaforma di screening automatizzato di operare come una “scatola nera”. Al centro: raccolta massiva di dati, punteggi invisibili, assenza di trasparenza e possibili violazioni del Fair Credit Reporting Act (FCRA). Il caso, riportato dal New York Times, riaccende il dibattito su etica, privacy e diritti nel recruiting algoritmico.
Screening con IA: quando il lavoro sembra un credito
Secondo i querelanti, l’uso di decine di sistemi IA sui portali di candidatura rende l’accesso al lavoro simile a una valutazione bancaria. Eightfold AI, azienda specializzata in talent intelligence, utilizza un modello addestrato su un database che, secondo il materiale di marketing, include 1 milione di titoli di lavoro, 1 milione di competenze e profili di oltre 1 miliardo di lavoratori. Il sistema assegna un punteggio da 1 a 5 ai candidati in base a competenze, esperienza e obiettivi del recruiter.
La “scatola nera” e l’assenza di diritti
I candidati non possono conoscere il punteggio, né il processo che lo genera. Questo li priva della possibilità di contestare errori o “allucinazioni” dell’IA. Inoltre, non è chiaro quali dati vengano estratti dai CV, per quanto tempo siano conservati e con chi vengano condivisi. Per i querelanti, il meccanismo è assimilabile a quello dei credit bureau e dovrebbe quindi rientrare nelle tutele del FCRA.
Una testimonianza che fa discutere
Erin Kistler, informatica con decenni di esperienza, ha dichiarato al NYT di aver ricevuto risposte solo nello 0,3% delle migliaia di candidature inviate in un anno. “Merito di sapere cosa viene raccolto su di me e condiviso con i datori di lavoro”, ha affermato.
Implicazioni legali e sociali
Il contenzioso potrebbe colmare una vasta area grigia normativa nelle assunzioni basate su IA. In gioco: trasparenza, non discriminazione, diritto alla spiegazione e controllo sui dati personali.
Approfondimento – Cronologia essenziale
- 2018 – Entrata in vigore del GDPR (UE): principi di trasparenza e minimizzazione. https://gdpr.eu
- 2023–2024 – Linee guida su IA e lavoro (OECD, ILO). https://www.oecd.org/ai/ ; https://www.ilo.org
- 2025 – Rafforzamento delle regole su sistemi ad alto rischio (AI Act UE). https://eur-lex.europa.eu
- 2026 – Causa contro Eightfold AI (New York Times). https://www.nytimes.com
Consigli di approfondimento
- ILO: AI e lavoro – https://www.ilo.org
- OECD: AI Policy Observatory – https://www.oecd.org/ai
- FTC: Fair Credit Reporting Act – https://www.ftc.gov
Abstract (Pro e Rischi)
Pro: velocità, scalabilità, riduzione dei tempi di selezione.
Rischi: opacità, bias, violazioni della privacy, esclusione sistemica.
Conseguenze: senza regole chiare, l’IA può amplificare asimmetrie e minare la fiducia nel mercato del lavoro; con governance e audit, può diventare uno strumento equo e verificabile.







