Un nuovo chatbot del Dipartimento della Difesa statunitense ha giudicato “inequivocabilmente illegale” un attacco militare contro civili sopravvissuti. Il caso solleva interrogativi su etica, responsabilità e uso dell’intelligenza artificiale nei conflitti armati, evidenziando una frattura tra tecnologia, diritto internazionale e decisioni politiche.
L’intelligenza artificiale entra ufficialmente nei processi interni del Pentagono, ma lo fa mettendo in luce contraddizioni profonde. Con il lancio di GenAI.mil, un modello linguistico pensato per supportare il personale militare, il Dipartimento della Difesa statunitense ha introdotto uno strumento in grado di rispondere a quesiti su norme operative e diritto dei conflitti armati. Poche ore dopo l’attivazione, il sistema è stato interrogato su uno scenario ipotetico: un attacco missilistico contro un’imbarcazione civile sospettata di traffico di droga, seguito dall’ordine di colpire anche due sopravvissuti.
La risposta dell’IA è stata netta. Secondo GenAI.mil, l’ordine di uccidere i sopravvissuti costituirebbe una violazione delle politiche del Dipartimento della Difesa e delle Convenzioni di Ginevra, configurandosi come un ordine illegale che un militare dovrebbe rifiutare. La valutazione è stata confermata da fonti interne alle forze armate, rafforzando la credibilità del caso.
Il punto centrale non è la precisione giuridica del chatbot — che richiama principi consolidati del diritto umanitario internazionale, come la protezione dei civili e dei combattenti hors de combat — ma il paradosso che ne emerge. Una tecnologia progettata per assistere l’apparato militare riconosce limiti legali che, nella pratica storica, gli Stati Uniti e altre potenze hanno più volte oltrepassato, indipendentemente dalle amministrazioni politiche.
Analisti ricordano che tattiche come il “double tap” con droni sono state utilizzate anche in passato, alimentando un dibattito mai risolto su legalità, proporzionalità e responsabilità. L’IA, in questo contesto, non introduce nuove norme, ma rende visibile una discrepanza: la distanza tra regole formalmente accettate e comportamenti reali sul campo.
Approfondimento – Cronologia e contesto
- 1949: Adozione delle Convenzioni di Ginevra, pilastro del diritto umanitario internazionale.
- Anni 2000–2016: Uso estensivo di droni armati da parte degli USA in operazioni antiterrorismo.
- 2025: Lancio di GenAI.mil per il supporto al personale militare.
Fonti
- Comitato Internazionale della Croce Rossa (ICRC): https://www.icrc.org
- Dipartimento della Difesa USA: https://www.defense.gov
- BBC – Analisi su droni e diritto bellico: https://www.bbc.com
Consigli di approfondimento
- ONU, diritto dei conflitti armati: https://www.un.org
- Human Rights Watch, guerra e tecnologia: https://www.hrw.org
Abstract – Pro e rischi etici e sociali
L’uso dell’IA in ambito militare può rafforzare la conformità alle norme e migliorare la consapevolezza giuridica dei soldati. Tuttavia, rischia di diventare uno strumento di legittimazione formale se non accompagnato da reali meccanismi di responsabilità. La conseguenza futura potrebbe essere una delega morale agli algoritmi, senza un cambiamento sostanziale delle pratiche belliche.







