Nel corso della campagna di bombardamenti militari israeliani a Gaza, è emerso l’utilizzo di un database alimentato da intelligenza artificiale precedentemente non divulgato.
Questo sistema, denominato “Lavanda”, ha identificato in una fase 37.000 potenziali bersagli sulla base dei loro presunti legami con Hamas, secondo fonti di intelligence coinvolte nel conflitto. Tuttavia, le stesse fonti rivelano che i funzionari militari israeliani hanno permesso la morte di un gran numero di civili palestinesi, soprattutto durante le prime settimane e i primi mesi del conflitto.
Questa testimonianza insolitamente franca offre uno sguardo raro alle esperienze di prima mano degli ufficiali di intelligence israeliani che hanno utilizzato sistemi di apprendimento automatico per identificare i bersagli durante la guerra semestrale.
L’uso di potenti sistemi di intelligenza artificiale da parte di Israele nella sua lotta contro Hamas ha raggiunto territori inesplorati per la guerra avanzata, sollevando una serie di questioni legali e morali e trasformando il rapporto tra il personale militare e le macchine. Un ufficiale di intelligence che ha utilizzato Lavanda ha dichiarato: “Questo è senza precedenti, nella mia memoria. Avevo più fiducia in un ‘meccanismo statistico’ che in un soldato in lutto. Tutti noi, me compreso, abbiamo perso persone il 7 ottobre. La macchina lo ha fatto freddamente. E questo ha reso tutto più facile.”
Un altro utente di Lavanda ha messo in discussione se il ruolo umano nel processo di selezione fosse significativo, affermando: “Investivo 20 secondi per ciascun bersaglio in questa fase e ne facevo decine ogni giorno. Come essere umano, non avevo alcun valore aggiunto, se non quello di apporre un timbro di approvazione. Ha risparmiato molto tempo.”
_____
1: The Guardian: ‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets
2: Business & Human Rights Resource Centre
3: Gigazine