Quando l’ottimismo uccide: come la fiducia nell’IA sta trasformando l’arte bellica
L’uso dell’intelligenza artificiale nei sistemi bellici rivela due tendenze pericolose: un approccio soluzionistico alla tecnologia e la spinta a sperimentare prototipi nel vivo dell’azione
Quando si parla delle applicazioni dell’intelligenza artificiale (IA) nell’ambito militare, l’immaginazione spesso indugia in scenari epici di guerra in cui eserciti di macchine, robot e droni si scontrano, mentre gli umani – in questo caso, i militari – occupano un ruolo marginale ai lati del campo di battaglia.
Naturalmente, questi scenari sono il frutto della fantascienza e sono lontani dal poter essere realizzati. Questo non esclude, però, un fatto molto concreto: gli eserciti di tutto il mondo stanno progettando e implementando sistemi militari che usano l’intelligenza artificiale soprattutto per attività di targeting, ovvero di individuazione dell’obiettivo da colpire. È un fenomeno che riguarda soprattutto i droni di ultima generazione, come quelli usati in Ucraina contro i russi, che grazie alle tecnologie di cui sono dotati possono essere semplicemente pilotati verso l’obiettivo, che poi individuano e ingaggiano senza bisogno ulteriore del supporto umano.
In genere, l’uso dell’IA in guerra è apprezzato e incoraggiato dalle forze armate per due motivi principali. Da un lato, l’implementazione di questi sistemi diminuisce il bisogno di inviare soldati sul campo, limitando di conseguenza la perdita di vite umane. Dall’altro, c’è l’idea che queste armi siano più precise e possano raggiungere un obiettivo bellico in modo veloce ed efficace, riducendo così la possibilità di un errore umano.
L’idea che l’IA e la tecnologia in generale rappresentino soluzioni semplici, “compatte” ed efficienti a problemi estremamente complessi come quelli militari è un concetto antico. Si chiama soluzionismo tecnologico e, in guerra, non promette nulla di buono.
Che cos’è il soluzionismo tecnologico?
Sebbene il concetto non sia nuovo, è con Evgenij Morozov che il soluzionismo tecnologico viene definito in modo ampio e sistematico. In Per salvare tutto, clicca qui (2013), Morozov lo colloca nei principali ambiti della società contemporanea — economico, sociale, politico e scientifico — mettendone in luce la portata e le implicazioni.
Il punto centrale della sua analisi è la critica alla logica che sostiene questi approcci: l’idea che problemi complessi possano essere individuati con facilità e risolti in tempi rapidi. Una visione che finisce per semplificare troppo le dinamiche umane, proponendo soluzioni tecnologiche spesso inadatte ad affrontarne le cause profonde. In questo modo, il contesto in cui questi problemi esistono viene trascurato e questi rischiano persino di aggravarsi.
Particolarmente rilevante è poi il legame che Morozov individua tra soluzionismo e politica, soprattutto per quanto riguarda l’impatto sul processo decisionale e sulla vita dei cittadini. È il caso dell’uso, da parte dei governi, dei dati privati degli utenti online per pratiche come il profiling, impiegato dalle forze dell’ordine per costruire profili psicologici, sociali e comportamentali degli individui. Questo tipo di strumenti, basati su dati storici e modelli statistici, tende a replicare e amplificare bias preesistenti, finendo per colpire in modo sproporzionato determinati gruppi sociali. In questo modo, le promesse di efficienza si traducono in costi significativi non solo in termini di privacy e libertà civili, ma anche di equità e uguaglianza.
In sintesi, ciò che Morozov definisce è l’idea che quando si parla di tecnologia come uno strumento neutro e scevro dall’irrazionalità tipicamente umana, si dimentica che qualsiasi prodotto tecnologico è anche un prodotto umano. Inoltre, è il risultato non solo del particolare contesto sociale, politico, ed economico di cui riflette i valori, ma anche dei bias cognitivi degli individui che lo hanno plasmato.
Questo tipo di considerazione diventa cruciale quando si entra nel dominio della guerra. Immaginiamo, per un momento, l’impiego di droni dotati di sistemi d’arma autonomi letali (in inglese lethal autonomous weapons systems, LAWS): armamenti capaci di selezionare, ingaggiare e colpire obiettivi senza l’intervento diretto di un operatore umano. A prima vista, il loro utilizzo appare estremamente vantaggioso. Permetterebbe infatti a un esercito di redistribuire le proprie risorse — i soldati che di solito si occuperebbero di pilotare questi sistemi — e, allo stesso tempo, prometterebbe una maggiore precisione nell’individuazione dei bersagli, riducendo il rischio di errori e, in teoria, anche i danni collaterali, cioè le vittime civili.
Eppure, questa visione poggia su presupposti problematici. Sistemi di questo tipo non possono mai essere davvero autonomi o neutrali nelle loro decisioni. La loro logica operativa è sempre il prodotto di una programmazione umana: l’algoritmo che consente al drone di identificare e colpire un obiettivo dipende da come chi lo progetta definisce cosa sia un “obiettivo militare”. In altre parole, tali sistemi incorporano — e potenzialmente amplificano — le categorie, le assunzioni e i pregiudizi di chi li ha sviluppati.
I LAWS sono sistemi in fase di studio, molto lontani dall’essere usati sul campo. Tuttavia, anche un drone che sia dotato di un intelligenza artificiale che supporti il suo operatore nella scelta di un target si presta a critiche profonde allo stesso modo che, questa volta, hanno a che fare con il problema dell’eccessiva fiducia che i militari danno all’IA.
Usiamo ancora una volta la nostra creatività e immedesimiamoci in un operatore che pilota un drone nella sicurezza della sua base a Tampa, in Florida, casa del CENTCOM (il commando statunitense che gestisce le operazioni del Medioriente) e del SOCOM (il commando per le forze speciali). Immaginiamo ora che il drone, pattugliando un villaggio in territorio nemico, individui del movimento: un gruppo di persone che si raduna davanti alla porta di una casa. L’intelligenza artificiale che alimenta il sistema di targeting del drone suggerisce che queste persone siano un bersaglio da colpire. Al soldato di Tampa basta premere un pulsante: gli è stato insegnato ad affidarsi alle macchine tecnologicamente avanzate che opera — per lui (o lei) procedere dovrà essere un azione piuttosto automatica.
Questo è un esempio molto semplificato, ma è utile per capire un concetto importante: un’esercito addestrato a porre una fiducia spropositata nell’efficacia delle sue armi e dei suoi strumenti, soprattutto se equipaggiati con l’intelligenza artificiale, sarà sempre più incoraggiato a rimuovere il giudizio umano dal processo decisionale che precede una decisione in battaglia. Questo risulterebbe nell’automatizzazione di azioni letali, come sganciare una bomba su un gruppo di persone in movimento senza la certezza assoluta che si tratti di nemici e non di civili nella loro quotidianità.
Il problema del bias algoritmico e quello della fiducia cieca in questi sistemi si aggava nel momento in cui queste tecnologie all’avanguardia vengono testate direttamente sul campo: un processo che, nell’ambito delle scienze sociali che si occupano di questi temi, è noto come guerra per prototipi.
Che cosa ci fa un prototipo in battaglia?
Il concetto di guerra per prototipo trae origine dal quadro teorico elaborato da Robert R. Leonhard nel 2000. Leonhard scriveva agli albori della RMA, la rivoluzione degli affari militari che secondo alcuni esperti di storia militare ha trasformato il modo di fare la guerra tra la fine del XX e l’inizio dl XXI secolo. Osservando quei cambiamenti, Leonhard predisse che il XXI secolo avrebbe visto un allontanamento dalla dipendenza da armamenti prodotti in serie in favore dello sviluppo di sistemi limitati e specifici per la missione, adattati alle sfide operative concrete dove sarebbero stati anche testati.
Questa logica della sperimentazione orientata alle singole operazioni militari costituisce il fondamento delle recenti concettualizzazioni della guerra per prototipi nella letteratura militare contemporanea. L’idea è che l’innovazione tecnologica si concentri sempre più nel settore privato e che, a causa delle rigide strutture istituzionali e burocratiche presenti all’interno delle forze armate, l’industria della difesa non sia in grado di stare al passo con questi progressi. In alternativa, la guerra per prototipi sarebbe un modello in grado non solo di garantire maggiore flessibilità all’esercito nel procurarsi gli armamenti, ma anche di assicurare anche l’elemento sorpresa — si tratta di armi potenzialmente sconosciute ai nemici — con la possibilità di disorientare gli avversari e creare vantaggi operativi.
La guerra per prototipi non è solo una dottrina, ma anche un atteggiamento volto ad accelerare l’adattamento militare di fronte al cambiamento tecnologico. Il campo di battaglia diventa un laboratorio per l’innovazione in cui la sperimentazione e una maggiore tolleranza al fallimento sono meccanismi centrali di apprendimento e progresso. I sostenitori di questo approccio credono che dovrebbe addirittura estendersi oltre lo sviluppo degli armamenti per plasmare la cultura organizzativa militare, promuovendo una maggiore agilità istituzionale.
La tolleranza verso il rischio e il fallimento sono quindi forze produttive cruciali nella dottrina della guerra per prototipi. Purtroppo, però, il fallimento in guerra è sempre associato alla perdita di vita umana, sia civile che militare: un aspetto che i propositori di questo concetto e coloro che credono nel potenziale risolutivo delle tecnologie basate sull’intelligenza artificiale tendono a ignorare.
Un esempio dalla realtà ci aiuta a capire come queste riflessioni abbiano degli effetti reali sulla vita delle persone. Secondo un report della Fondazione per la ricerca politica, economica e sociale (SETA), dall’attacco di Hamas del 7 ottobre 2023 Israele ha testato sui palestinesi due sistemi di intellegenza artificiale noti come Lavander e Habsora. Quest’ultimo è in uso fin dal 2021 e usa dati ricavati dai sistemi satellitari e dai droni per individuare i target da colpire. Il primo, invece, opera in modo simile, ma il suo utilizzo è più recente: nonostante il software si basi su sistemi pre-esistenti, il suo utilizzo in massa per l’uccisione dei palestinesi è successivo al 7 ottobre.
Secondo le indagini di SETA e di altri networks, come il magazine indipendente +972, Israele avrebbe usato questa intelligenza artificiale nelle prime fasi della guerra per redarre una lista di circa 37.000 obiettivi, categorizzati come combattenti o alleati di Hamas. Questo risultato sarebbere stato raggiunto raccogliendo i dati dalle telecamere di sorveglianza nelle città, dai dispositivi di riconoscimento facciale installati ai checkpoint e persino dalle chat private dei palestinesi sui social o dalle conversazioni telefoniche. Il dato più inquietante è però un altro: tra il momento in cui Lavander riconosce un target e quello in cui un soldato umano autorizza il colpo passerebbero solamente venti brevi secondi e molto spesso questa autorizzazione arriverebbe senza nessun controllo effettivo della correttezza del target acquisito, lasciando la decisione finale, di fatto, alla macchina. Il margine di errore non è sconosciuto alle forze di difesa israeliane: è noto che nel 10 per cento dei casi Lavander si sbagli, ma questo rischio viene ben tollerato dall’IDF, che prevede una soglia di venti morti civili “accettabili” per colpo.
Fidarsi ciecamente del giudizio in apparenza imparziale dell’intelligenza artificiale e sperimentarne le caratteristiche sul campo di battaglia sono due tra le tendenze che stanno trasformando il modo di fare la guerra. Più che robot-sparatutto e velivoli super intelligenti, saranno l’approccio soluzionistico e sperimentalista ai prototipi della tecnologia moderna a definire le dinamiche del campo di battaglia del futuro. In tutto questo, il giudizio umano non può e non deve prescindere da queste pratiche che hanno la capacità di uccidere, come le morti di Gaza attestano tristemente.






