Clausewitz contro l’algoritmo: chi decide sul campo?
In un’epoca in cui l’intelligenza artificiale ridefinisce il volto della guerra, questo articolo esplora il confronto tra pensiero militare classico e automatizzazione strategica. Dalle frasi immortali di Clausewitz alla dottrina del mission command, passando per droni autonomi e algoritmi predittivi, la riflessione interroga il ruolo umano nel processo decisionale bellico. La guerra non è solo tecnica: è frizione, intuizione, volontà. E l’intelligenza artificiale, lungi dal sostituire il comandante, può diventare uno strumento potente – purché guidato dal pensiero critico. Tra storia militare e scenari futuri, emerge un punto fermo: l’algoritmo decide solo dove l’uomo gli consente di farlo.
Se “la guerra è la prosecuzione della politica con altri mezzi”, cosa accade quando quei mezzi decidono da soli?
La domanda può sembrare provocatoria, ma è quanto mai attuale. Dalle steppe ucraine al deserto yemenita, dalle rotte del Mar Rosso ai laboratori militari della Silicon Valley, il volto della guerra contemporanea si sta trasformando sotto la pressione dell’intelligenza artificiale (AI).
Droni autonomi identificano e colpiscono bersagli con margini di intervento umano sempre più ridotti. Algoritmi di target recognition analizzano flussi di dati in tempo reale per suggerire soluzioni tattiche. L’uso dell’AI nella sfera militare, fino a pochi anni fa confinato nei centri di simulazione e nei laboratori R&D, è ormai operativo.
Ma cosa comporta questa trasformazione per la strategia? Per il comando? E, soprattutto, per il concetto stesso di guerra?
Il pensiero strategico classico – da Clausewitz a Moltke, da Liddell Hart a Boyd – si è sempre fondato sull’elemento umano: intuizione, frizione, esperienza, volontà. Ora però si profila una discontinuità: non una semplice evoluzione tecnica, ma un passaggio di soglia cognitiva. Quando l’algoritmo interviene nel processo decisionale militare, anche il concetto stesso di responsabilità bellica si sfuma.
Questa riflessione non è solo teorica. Ha risvolti pratici, giuridici, morali. In un contesto globale in cui le potenze stanno riscrivendo le regole dell’ingaggio tecnologico, l’Italia – come altri Paesi occidentali – è chiamata a interrogarsi non solo su come usare l’intelligenza artificiale, ma su come comandare in presenza di essa.
L’intelligenza artificiale è oggi una realtà operativa nel campo militare. Non più riserva teorica di scenari futuri, ma componente concreta e silenziosa di molte missioni in corso. Laddove un tempo si impiegavano sensori, operatori e catene decisionali articolate, oggi intervengono algoritmi capaci di raccogliere, filtrare, analizzare e restituire dati in tempo reale. In alcuni casi, persino di agire autonomamente.
L’intelligenza artificiale sul campo: Ucraina, Russia e NATO
Il conflitto russo-ucraino rappresenta il primo laboratorio bellico in cui l’intelligenza artificiale viene impiegata in modo sistematico, anche se ancora limitato. L’Ucraina, grazie al supporto occidentale, ha integrato software di AI in sistemi di target recognition, impiegati per analizzare le immagini provenienti da droni, satelliti e reti civili (incluse quelle fornite da aziende private come Palantir o Clearview AI). In questo modo, il ciclo di Boyd “osserva-orienta-decidi-agisci” (OODA) si è notevolmente accorciato, aumentando la velocità d’ingaggio e riducendo la dipendenza dalle strutture tradizionali di comando (Osinga, 2007). Sul fronte russo, si registra un uso crescente di droni “kamikaze” a guida semi-autonoma e di sistemi di contromisure elettroniche supportati da AI, capaci di individuare pattern nei lanci missilistici ucraini e interferire in modo adattivo.
Il programma Replicator, annunciato dal Pentagono nel 2023, punta a rendere operativi migliaia di droni autonomi entro il 2025. Non si tratta solo di strumenti d’attacco, ma di piattaforme dotate di capacità decisionali distribuite: micro-sciami capaci di cooperare, identificare obiettivi, adattarsi a contesti ostili e persino ritirarsi in modo coordinato in caso di perdita di comunicazione. L’obiettivo americano è chiaro: contrastare la superiorità numerica cinese in Asia orientale attraverso una massa agile di sistemi intelligenti, difficilmente neutralizzabili tramite attacchi convenzionali. In questo modello, l’AI non è solo uno strumento: è un moltiplicatore strategico.
Nelle esercitazioni congiunte della NATO – in particolare nei Paesi baltici, in Polonia e nel Mare del Nord – vengono ormai impiegati sistemi AI per supportare il C4ISR (Command, Control, Communications, Computers, Intelligence, Surveillance and Reconnaissance). L’AI assiste gli stati maggiori nell’identificazione delle minacce, nella predizione dei movimenti nemici e nella simulazione rapida di opzioni tattiche. L’elemento più innovativo non è tanto la capacità di calcolo, quanto la velocità di previsioni integrate che precedentemente richiedevano ore, se non giorni.
Il limite della macchina: frizione, intuizione e imprevedibilità
Questa evoluzione solleva alcuni interrogativi cruciali nell’attuale riflessione strategica:
- Fino a che punto è accettabile delegare all’AI parti del ciclo decisionale?
- Qual è il limite oltre il quale l’autonomia operativa scavalca la responsabilità strategica?
- Un comandante può realmente comprendere – e comandare – ciò che funziona su logiche opache e auto-addestranti?
- Cosa resta, in questo scenario, delle categorie clausewitziane: la volontà, la frizione, il giudizio?
Perché la guerra può cambiare i suoi strumenti, ma non può rinunciare a un decisore – anche se, oggi, questo decisore non è sempre umano.
Carl von Clausewitz non aveva mai sentito parlare di reti neurali o apprendimento automatico, ma aveva colto una verità che oggi, nell’era dell’intelligenza artificiale, torna più attuale che mai: “nella guerra, tutto è molto semplice, ma anche il più semplice è difficilissimo da realizzare” (Clausewitz, 2024). È questa la definizione della frizione, uno dei concetti più profondi e meno “automatizzabili” dell’intero pensiero strategico occidentale.
Nel Vom Kriege, Clausewitz descrive la frizione come quell’insieme indefinibile di attriti, ostacoli imprevisti, errori umani, imperfezioni materiali e reazioni nemiche che complicano ogni piano. È, in un certo senso, il “nemico interno” dell’azione militare: ciò che trasforma il piano teorico in una realtà caotica e indecifrabile. Per Clausewitz, solo il comandante dotato di genio, cioè di intuito e sangue freddo, può affrontare e governare la frizione. In questo senso, la guerra non è mai solo calcolo: è volontà contro volontà, in un ambiente incerto.
Il pensiero di Moltke il Vecchio rafforza questa visione. “Nessun piano operativo sopravvive con certezza al primo contatto con le forze principali del nemico” (Hughes, 1993). È la formulazione classica della critica alla pianificazione intesa in senso rigido e non flessibile, oggi più che mai rilevante. Le architetture algoritmiche, pur sofisticate, si basano su pattern addestrati, su dati storici, su simulazioni. Ma cosa accade quando il nemico rompe il modello? Quando l’imprevisto esce dalla base-dati?
Per quanto performante, l’AI non “comprende” il contesto: lo calcola. Non riflette, ma analizza. In assenza di riferimenti noti o in presenza di segnali contrastanti, l’algoritmo può bloccarsi o – peggio – suggerire un’azione errata senza segnalarne l’incertezza.
Il comandante umano, invece, agisce anche nell’ambiguità, si assume la responsabilità, modifica il piano in corsa. L’intuizione, il coup d’œil di matrice napoleonica e clausewitziana, resta una facoltà insostituibile.
Un esempio concreto può aiutare. Durante la Guerra del Golfo del 1991, le forze americane utilizzarono per la prima volta sistemi avanzati di supporto decisionale. Tuttavia, fu la scelta del generale Schwarzkopf di eseguire un’improvvisa manovra aggirante a Ovest (la cosiddetta “manovra aggirante occidentale” del 24 febbraio 1991) – fuori da qualsiasi simulazione prevista – a determinare la rottura del dispositivo iracheno. Quella decisione non era nei dati. Era nel comandante.
Lungi dall’essere un’idea romantica, il principio di frizione è dunque un monito. Una bussola epistemologica che ci ricorda che ogni sistema, anche il più perfetto, si muove entro un mondo imperfetto. Affidarsi all’intelligenza artificiale senza tenere conto della frizione significa sottovalutare ciò che la guerra è davvero: un’arena di caos dominabile solo dalla volontà strategica umana (cfr. Liddell Hart, 2007).
Dall’intuizione alla rete: comando e responsabilità nell’era AI
La struttura del comando e controllo ha attraversato profondi cambiamenti: dal comando napoleonico centralizzato, fino al mission command di origine prussiana. Oggi, il contesto dominante è il Joint All‑Domain Command & Control (JADC2), il sistema del Dipartimento della Difesa USA che connette sensori terrestri, navali, aerei e spaziali in un’unica rete guidata da AI. Parallelamente, la NATO promuove iniziative come il Federated Mission Networking (FMN), favorendo interoperabilità e supporto decisionale multinazionale in tempo quasi reale.
Negli Stati Uniti, esercitazioni recenti come Experiment 3 dell’Air Force hanno coinvolto sistemi AI capaci di accelerare la cosiddetta kill chain: AI che analizzano montagne di dati, riducono il carico cognitivo degli operatori e propongono soluzioni di targeting, mantenendo però l’uomo sempre nel circuito decisionale. Un’evoluzione analoga si riflette nel progetto Thunderforge, volto a supportare i comandanti nella pianificazione strategica su scala territoriale, integrando strumenti di Microsoft e Google e mantenendo la decisione finale in mano umana.
L’adozione di sistemi letali autonomi (Lethal Autonomous Weapons Systems – LAWS) solleva preoccupazioni normative ed etiche: chi è responsabile quando l’algoritmo decide? Secondo la dottrina del commander’s responsibility, il comandante rimane legalmente e moralmente responsabile dell’uso e del comportamento del sistema, anche se autonomo. Questo è il principio di responsabilità legale in vigore nel diritto internazionale umanitario.
Tuttavia, mancano norme chiare, e anche in questo caso il concetto di “guerra ibrida” non perde di efficacia. Il Parlamento europeo ha richiamato più volte il principio di controllo umano significativo (meaningful human control) sul targeting e le decisioni letali, escludendo dal finanziamento sistemi senza intervento umano adeguato. Analogamente, in Italia, l’eticità dell’uso dei LAWS rientra nei codici di diritto militare e internazionale, ma senza una regolamentazione specifica: la responsabilità rimane in capo all’operatore o al superiore, e in alcuni casi anche al produttore.
Qui si apre un altro interrogativo: il diritto internazionale umanitario è rispettato da tutti?
Gli algoritmi favoriscono decisioni rapide distribuite su più livelli, riducendo i tempi di reazione ma erodendo il modello centralizzato del comando. AI auto-apprendenti – come quelli impiegati in sistemi LAWS – possono evolvere in comportamenti non trasparenti: senza audit log e limiti prefissati, emerge quindi un responsibility gap che sfida l’etica militare e il diritto internazionale.
Serve una nuova generazione di ufficiali propensi all’interazione critica con l’AI. Non più subordinati dell’algoritmo, ma team leader capaci di interpretare e regolare strumenti autonomi in ambienti incerti e ad alta velocità decisionale.
La guerra sta cambiando – ma non del tutto. L’intelligenza artificiale, con i suoi droni autonomi, algoritmi predittivi e sistemi di supporto decisionale, promette di trasformare l’intero ciclo operativo: dalla raccolta dati all’ingaggio dei bersagli. Tuttavia, non stiamo assistendo a una rivoluzione completa, bensì a una metamorfosi ibrida, dove la tecnologia si sovrappone, senza sostituirla, alla dimensione umana della strategia.
Il cuore della questione resta: chi decide davvero sul campo?
L’intelligenza artificiale potenzia, ma non rimpiazza, il giudizio strategico. Clausewitz, Moltke e la tradizione del comando militare classico non sono anacronismi: sono la bussola critica che ci può guidare per evitare l’illusione tecnocratica. In guerra, gli algoritmi possono calcolare traiettorie, riconoscere immagini, ottimizzare catene logistiche. Ma la guerra, nel senso clausewitziano del termine, rimane un atto di forza, governato dall’incertezza e guidato dalla volontà.
Nel teatro operativo reale – dall’Ucraina a Gaza – le decisioni determinanti vengono ancora prese da esseri umani, talvolta in condizioni estreme, senza supporto algoritmico affidabile, e assumendosene le conseguenze politiche, etiche, morali. L’AI può essere un alleato. Non un comandante.
L’evoluzione tecnologica attuale, se ben orientata, non rappresenta un superamento del pensiero militare tradizionale, ma ne può essere un’estensione coerente. In particolare, l’intelligenza artificiale, nella sua vocazione a sistematizzare, prevedere e semplificare il complesso, richiama molto più da vicino la prospettiva di Antoine-Henri Jomini che non quella del suo presunto antagonista. Contrariamente a letture superficiali, Jomini non intendeva ridurre la guerra a una macchina impersonale, né privare il comandante del suo ruolo centrale. Al contrario, il suo sforzo teorico mirava a fornire strumenti concettuali e operativi per sostenere anche il comandante “non geniale” nella lettura del campo di battaglia, rendendolo più comprensibile, prevedibile, governabile (Jomini, 2007).
In questa luce, l’IA può essere intesa come una realizzazione moderna di quell’ambizione jominiana: un supporto analitico e predittivo al servizio della decisione umana, non il suo sostituto. Se guidata da questa impostazione, la tecnologia militare potrà rafforzare – e non indebolire – il principio del comando responsabile.
Le forze armate del XXI secolo si troveranno di fronte a un bivio dottrinale: integrazione consapevole, in cui l’AI è subordinata al pensiero critico umano, come strumento di accelerazione e supporto, ma entro limiti chiari e verificabili; oppure sostituzione parziale, in cui le macchine, progressivamente, assumono ruoli tattici e operativi autonomi, generando un “campo di battaglia digitale” dove l’uomo osserva più che agire.
In entrambi i casi, il problema non è tecnologico, ma strategico: quale tipo di guerra ci troveremo a combattere e in che modo intendiamo vincerla?
Nella contrapposizione Clausewitz contro l’algoritmo, in realtà, i due non sono necessariamente agli antipodi. L’uno parla di pensiero, intuizione, genio, frizione. L’altro di dati, pattern, calcolo, velocità. La guerra – come ci ricorda la storia militare – non è mai solo pensiero o solo tecnica. È sempre una relazione dialettica tra mente, macchina e realtà.
Nel futuro prossimo, il vincitore non sarà né il teorico puro né il tecnocrate cieco. Ma chi saprà coniugare dottrina, esperienza e capacità di usare – senza farsi usare – l’intelligenza artificiale.
E forse, proprio Jomini, se riletto senza pregiudizi, ci offre oggi la chiave di equilibrio tra razionalità tecnologica e comando umano.
Note e riferimenti
- Clausewitz C. von, Della guerra, ed. integrale, a cura di Mini F., IBEX, 2024;
- Hughes, D., Moltke on the Art of War. Selected Writings, Presidio, 1993;
- Liddell Hart, B., Paride o il futuro della guerra, a cura di Mini F., LEG, 2007;
- Osinga, F., Science, Strategy and War. The strategic theory of John Boyd, Routledge, 2007;
- Jomini A. H., Sommario dell’arte della guerra, a cura di Botti F., Ed. Rivista Militare, 2007.
L’articolo Clausewitz contro l’algoritmo: chi decide sul campo? proviene da Difesa Online.
In un’epoca in cui l’intelligenza artificiale ridefinisce il volto della guerra, questo articolo esplora il confronto tra pensiero militare classico e automatizzazione strategica. Dalle frasi immortali di Clausewitz alla dottrina del mission command, passando per droni autonomi e algoritmi predittivi,…
L’articolo Clausewitz contro l’algoritmo: chi decide sul campo? proviene da Difesa Online.
Per approfondimenti consulta la fonte
Go to Source