“Hyper warfare”: siamo pronti per le guerre del futuro?
L’“iperguerra” è un’elaborazione concettuale, un’idea di come immaginiamo nel futuro l’utilizzo nelle operazioni belliche dell’intelligenza artificiale e delle sue applicazioni come il deep learning, con la sua capacità di svolgere compiti complessi come l’elaborazione del linguaggio naturale, il riconoscimento di immagini e vocale, la guida autonoma e tutte quelle capacità di cui oggi disponiamo e di cui, in prospettiva, disporremo in misura sempre maggiore.
Tale evoluzione è il risultato dei progressi nell’elaborazione di algoritmi che possono sia prendere decisioni, sia eseguirle con il supporto del “supercalcolo”, una forma di calcolo ad elevate prestazioni effettuato utilizzando un cosiddetto “supercomputer”, che consente di ridurre sensibilmente il tempo necessario per le soluzioni. Poiché i supercomputer sono spesso usati per eseguire programmi di intelligenza artificiale, il supercalcolo è diventato sinonimo di intelligenza artificiale, in virtù del fatto che i programmi di intelligenza artificiale richiedono le procedure di calcolo offerte dai supercomputer. L’iperguerra, dunque, è una forma di guerra sviluppata attraverso l’intelligenza artificiale, in cui, pertanto, la gran parte delle funzioni operative sono automatizzate o in alcuni casi addirittura autonome.
Per evitare che si possa incorrere in una confusione terminologica e, di conseguenza, concettuale, è opportuno sottolineare alcuni aspetti. L’“automazione” è un sistema per delegare compiti alle macchine, basato su una sequenza specifica di azioni o regole, secondo un processo prevedibile. Un sistema automatizzato “agisce secondo uno script pre-programmato per un’attività con una condizione di ingresso/uscita definita”1. L’“autonomia”, invece, è un processo più complesso e, in generale, significa “programmare macchine per eseguire alcuni compiti o funzioni che normalmente sarebbero svolti dagli esseri umani”2, tuttavia senza regole dettagliate, rendendolo così più imprevedibile. L’“intelligenza artificiale”, infine, può essere definita come “la capacità di un computer digitale o di un robot controllato da un computer di eseguire compiti comunemente associati agli esseri intelligenti”3. In ambito militare, l’intelligenza artificiale e i suoi sottoinsiemi come l’apprendimento automatico possono essere utilizzati per raggiungere un livello più elevato di automazione e autonomia nei sistemi d’arma.
I sistemi d’arma autonomi, dunque, sono “sistemi d’arma robotizzati che, una volta attivati, possono selezionare e ingaggiare bersagli senza ulteriore intervento da parte di un operatore umano”4. In sostanza, con l’automatizzazione un’azione o un’attività, per effetto dell’abitudine o dell’esercizio, viene compiuta senza sforzo o senza la necessità di un controllo continuo o di una particolare attenzione nelle varie fasi della loro esecuzione. Le funzioni autonome, invece, si verificano quando vengono prese decisioni e intraprese azioni completamente indipendenti dal ruolo dell’uomo.
Molte attività di combattimento possono essere automatizzate e molte possono essere rese autonome per ottenere la maggior precisione possibile nel conseguimento degli obiettivi designati, allo scopo di ridurre al minimo le vittime innocenti e la distruzione non necessaria di infrastrutture, in un quadro di situazione di consueto ed eufemisticamente indicato come “effetti collaterali”. È interessante quanto dichiarato in proposito dal generale John Allen, presidente della Brookings Institution, il quale ipotizza una de-responsabilizzazione delle azioni belliche condotte, derivante dall’automazione dei processi che le generano, attribuendola, con connotazioni fortemente negative, alle forze avversarie:
“È il nocciolo del problema che ci poniamo noi stessi, e quando dico noi stessi intendo la comunità delle nazioni, per cui valori quali i diritti umani, la vita umana e lo stato di diritto sono importanti. Nelle quattro guerre in cui ho combattuto, le più importanti delle quali sono state quelle in Iraq e in Afghanistan, il diritto dei conflitti armati era molto, molto importante per me come comandante. Questo, in parte, implicava che se avessi usato la forza, dovevo essere in condizione di distinguere chi fosse il nemico da chi non lo era, quelli che chiamiamo combattenti dai non combattenti. Se avessi dovuto usare la forza con l’intento di uccidere o di distruggere delle infrastrutture, l’avrei usata solo in modo proporzionale, non avrei usato una forza eccessiva; per me come comandante, queste sono le condizioni per restare nell’ambito della legalità. In uno scenario di iperguerra, però, potremmo combattere un nemico che non ha i nostri stessi valori; potremmo scoprire che non c’è nessun essere umano nel processo decisionale per applicare la forza letale e per contenere quella forza. ”5
Nell’idea di Allen, i sistemi dovranno essere subordinati alle leggi del diritto bellico e gestiti con criteri di controllo degli stessi da parte degli esseri umani, dunque secondo il concetto dell’“automazione”. Il rischio, tuttavia, è quello di doversi confrontare con avversari che questa deontologia la ignorano totalmente e che, in un’ottica di “autonomia” sia decisionale, sia esecutiva lasciata alle macchine, in un contesto di iperguerra godranno di un margine di vantaggio sproporzionato, dato dalla rapidità esecutiva degli armamenti motu proprio.
Prosegue Allen:
“Attraverso l’intelligenza artificiale abbiamo la capacità di designare un obiettivo sintetizzando enormi quantità di informazioni e poi acquisirlo. L’obiettivo può essere una grande unità nemica, una singola persona o un edificio. Negli ultimi anni ci sono state battaglie molto violente e, in realtà, credo che se avessimo avuto dei sistemi autonomi altamente sofisticati, in cui gli algoritmi fossero ben istruiti per periodi di tempo prolungati, se avessimo avuto fiducia in loro, quei sistemi avrebbero potuto mirare con precisione al nemico con modalità che avrebbero consentito di salvare molte vite civili, molte vite delle nostre truppe e, per molti aspetti, ridotto molto i danni alle infrastrutture. L’iperguerra, dunque, è prossima. Dobbiamo pensarci come popoli che credono veramente nei valori, il popolo italiano, il popolo americano; dovremo trovare la nostra strada e c’è nessuna prospettiva chiara, ma la guerra ipertecnologica sta arrivando e sarà una guerra a una velocità che non possiamo nemmeno immaginare.”6
Diventa fondamentale, pertanto, poter identificare con certezza gli obiettivi, per poter scongiurare, con buona approssimazione, che si provochino vittime e distruzioni non volute. E diventa altrettanto fondamentale impiegare sistemi d’armamento che, grazie alla tecnologia, agiscano con grande discernimento e intelligenza (artificiale), colpendo con precisione gli obiettivi designati e non altri. Queste considerazioni Allen le faceva nel 2019. La rapidità con cui la tecnologia evolve e con essa i sistemi d’arma, ha portato nel 2024 a vederne l’applicazione già su una scala piuttosto vasta, ancorché bisognevole di ulteriori sperimentazioni e, soprattutto, di riflessioni sul piano etico. Parliamo, allora, di hyperwar e dell’inchiesta relativa al sistema di Lavender utilizzato dalle IDF a Gaza per individuare e colpire sospetti appartenenti ad Hamas:
“Secondo sei ufficiali dell’intelligence israeliana, tutti in servizio nell’esercito durante l’attuale guerra nella Striscia di Gaza e coinvolti direttamente nell’uso dell’intelligenza artificiale per individuare obiettivi da assassinare, Lavender ha svolto un ruolo centrale nei bombardamenti senza precedenti sui palestinesi, soprattutto durante le prime fasi della guerra. In effetti, secondo le fonti, la sua influenza sulle operazioni militari era tale che i risultati del sistema di intelligenza artificiale erano essenzialmente trattati come se fossero una decisione umana.
Formalmente, il sistema Lavender è progettato per contrassegnare tutti i sospetti operativi nelle ali militari di Hamas e della Jihad Islamica Palestinese (PIJ), compresi quelli di basso rango, come potenziali obiettivi di bombardamento. Le fonti hanno riferito a +972 e a Local Call che, durante le prime settimane di guerra, l’esercito si è affidato quasi completamente a Lavender, che ha registrato fino a 37.000 palestinesi come sospetti militanti – e le loro abitazioni – per possibili attacchi aerei.
Durante le prime fasi della guerra, l’esercito ha dato ampia approvazione agli ufficiali per adottare le liste di uccisioni di Lavender, senza alcun obbligo di verificare a fondo le ragioni per cui la macchina faceva quelle scelte o di esaminare i dati informativi grezzi su cui si basavano.
Una fonte ha affermato che il personale umano spesso fungeva solo da “timbro di gomma” per le decisioni della macchina, aggiungendo che, normalmente, si sarebbero dedicati personalmente solo a circa “20 secondi” per ogni obiettivo prima di autorizzare un bombardamento, solo per assicurarsi che il bersaglio designato con Lavender fosse di sesso maschile. Questo nonostante sapessimo che il sistema commette quelli che sono considerati “errori” in circa il 10% dei casi, ed è noto che occasionalmente designa individui che hanno solo un vago legame con gruppi militanti, o nessun legame.
Inoltre, l’esercito israeliano ha attaccato sistematicamente gli individui presi di mira mentre si trovavano nelle loro case – di solito di notte, quando erano presenti tutte le famiglie – piuttosto che durante lo svolgimento delle attività militari. Secondo le fonti, questo perché, da quello che consideravano un punto di vista di intelligence, era più facile localizzare gli individui nelle loro abitazioni private. Ulteriori sistemi automatizzati – tra cui uno chiamato “Dov’è papà?” – anche questi rivelati qui per la prima volta, venivano utilizzati specificamente per tracciare gli individui presi di mira e compiere attentati quando questi entravano nelle residenze delle loro famiglie.
Il risultato, come testimoniato dalle fonti, è che migliaia di palestinesi – la maggior parte dei quali donne e bambini o persone non coinvolte nei combattimenti – sono state annientate dai raid aerei israeliani, soprattutto durante le prime settimane di guerra, a causa delle decisioni del programma di intelligenza artificiale.”7
L’operatore umano dedicava solo 20 secondi per decidere se autorizzare o meno un attacco. Inoltre il margine di errore per ogni attacco era del 10%, davvero troppo grande per essere accettabile. E, soprattutto, bastavano indizi minimi, spesso non verificabili, per far sì che i sistemi ingaggiassero il bersaglio sulla base di algoritmi ancora troppo rigidi per garantire tutti quei principi sopra elencati, che consentono di eliminare realmente chi è stato individuato come un reale nemico e non chi non centra nulla, vittima solo di un calcolo probabilistico o di un particolare fisico o strutturale, individuato da una macchina incapace di fare un ragionamento complesso e una valutazione discriminante, come solo un cervello umano può fare.
1 M. L. Cummings, The Human Role in Autonomous Weapon Design and Deployment, in Lethal Autonomous Weapons: Re-Examining the Law and Ethics of Robotic Warfare, Jai Galliott, Duncan MacIntosh, and Jens David Ohlin, Oxford University Press, 2021.
2 M.C. Horowitz, P. Scharre, Meaningful Human Control in Weapon Systems: A Primer, Center for a New American Security, 2015. https://www.cnas.org/publications/reports/meaningful-human-control-in-weapon-systems-a-primer.
3 B.J. Copeland, Artificial Intelligence, Encyclopedia Britannica, 2021. https://www.britannica.com/technology/artificial intelligence.
4 C. Heyns, Human Rights and the Use of Autonomous Weapons Systems (AWS) During Domestic Law Enforcement, Human Rights Quarterly, vol. 38, May 2016.
5 J. Allen, Hyperwar is coming, Ispi, 02/07/2019. https://www.youtube.com/watch?v=ofYWf2SKd_c.
6 Ibid.
7 Y. Abraham, “Lavender”: The AI machine directing Israel’s bombing spree in Gaza, +972, 03/04/2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/.
L’articolo “Hyper warfare”: siamo pronti per le guerre del futuro? proviene da Difesa Online.
L’“iperguerra” è un’elaborazione concettuale, un’idea di come immaginiamo nel futuro l’utilizzo nelle operazioni belliche dell’intelligenza artificiale e delle sue applicazioni come il deep learning, con la sua capacità di svolgere compiti complessi come l’elaborazione del linguaggio naturale, il riconoscimento di…
L’articolo “Hyper warfare”: siamo pronti per le guerre del futuro? proviene da Difesa Online.
Per approfondimenti consulta la fonte
Go to Source
