Evidenza

Dal 2004, il Centro Studi Geopolitica.info contribuisce allo studio delle Relazioni Internazionali e al dibattito sulla politica estera dell'Italia

Chi siamo
28/04/2026
Cyber e Tech

L’intelligenza artificiale accelera la guerra, ma ne complica il controllo: l’uso dell’AI nell’operazione Epic Fury

di Marco Bertoncelli

L’intelligenza artificiale sta ridefinendo tempi e modalità del conflitto armato, comprimendo i processi decisionali e aumentando l’efficienza operativa. Tuttavia, questa accelerazione introduce nuove forme di instabilità, mettendo in discussione la capacità degli attori coinvolti di mantenere il controllo sull’escalation.

Nel contesto delle trasformazioni contemporanee della guerra, l’innovazione tecnologica si configura come elemento strutturale nella definizione delle strategie e degli equilibri di potere. In questo quadro, l’intelligenza artificiale si sta imponendo come uno degli strumenti più rilevanti per la conduzione dei conflitti armati e il recente conflitto tra Stati Uniti e Iran ne offre un esempio emblematico, mostrando come l’integrazione dell’AI nei sistemi militari consenta un significativo incremento della rapidità decisionale. Tuttavia, tale vantaggio si accompagna a nuove forme di incertezza e a rischi sistemici che mettono in discussione la capacità degli attori politici e militari di mantenere il controllo sull’escalation. L’impiego dell’intelligenza artificiale nei conflitti armati migliora infatti l’efficacia operativa di una forza combattente, introducendo, però, dinamiche difficilmente prevedibili che rendono più fragile il controllo politico e più instabile la gestione strategica del conflitto, aprendo al contempo interrogativi rilevanti sul piano giuridico ed etico, in particolare in relazione all’attribuzione della responsabilità per decisioni sempre più mediate da sistemi algoritmici.

L’AI nei contesti di guerra

Il mondo della difesa si sta progressivamente orientando verso l’adozione dell’intelligenza artificiale all’interno dei processi operativi. Da droni capaci di scegliere autonomamente il bersaglio, a sistemi d’arma capaci di individuare e prendere di mira un soldato nemico, fino a sofosticatissimi sistemi di sorveglianza, l’AI è ormai al centro dei programmi di investimento delle forze armate di tutto il mondo. Basti pensare che nel bilancio del 2027, il Dipartimento di Guerra americano ha fatto richiesta per un investimento da 4,2 miliardi di dollari per lo sviluppo di un programma chiamato Sovereign Artificial Intelligence.

La guerra in Ucraina ha fornito il principale impulso circa l’adozione dell’AI sul campo di battaglia. Nel corso del 2024 le forze di Kiev hanno iniziato ad investire massicciamente su modelli AI, puntando a compensare carenze strutturali, in particolare in termini di personale, attraverso sistemi autonomi. 

Probabilmente non si arriverà, almeno nel breve termine, a sostituire completamente la presenza umana dal campo di battaglia, ma già oggi in Ucraina si sperimentano tecnologie capaci di acquisire il bersaglio autonomamente e puntare a neutralizzarlo senza l’ausilio del pilota. In questo contesto, è possibile distinguere tra sistemi human in the loop, in cui l’essere umano mantiene il controllo sulle decisioni critiche; sistemi human on the loop, nei quali l’operatore supervisiona e può intervenire; e sistemi human out of the loop, caratterizzati da un’autonomia decisionale pressoché completa. È soprattutto in quest’ultima categoria che emergono i dilemmi più rilevanti, poiché la capacità di selezionare e colpire un obiettivo viene progressivamente sottratta al controllo umano diretto. Una possibile traiettoria evolutiva è quella di sistemi d’arma completamente autonomi, capaci di decidere, eseguire, valutare il risultato delle proprie azioni e imparare da esse per migliorare la performance futura.

Tuttavia, le controindicazioni sono tutto fuorché inesistenti. Il rischio che l’intelligenza artificiale non sia in grado di distinguere un soldato nemico da uno alleato è concreto, così come un obiettivo legittimo da uno non consentito. È per questo che gli ucraini stessi sottolineano l’importanza di mantenere lo “human in the loop”. 

L’eccessivo affidamento su software di intelligenza artificiale potrebbe aver già prodotto risultati catastrofici. All’indomani dell’inizio dell’Operazione Epic Fury il mondo intero ha infatti accolto con indignazione la notizia del bombardamento di una scuola a Minab, nel sud dell’Iran, da parte delle forze americane. Le circa 150 vittime e il centinaio di feriti sono state ricondotte da alcune analisi a un possibile errore nel processo di identificazione del bersaglio, nel quale sistemi di intelligenza artificiale potrebbero aver avuto un ruolo centrale.

Il caso Iraniano

Non sono pochi a definire il conflitto in Iran come la prima “guerra AI”, una guerra in cui sistemi di intelligenza artificiale come il Maven Smart System di Palantir hanno giocato fin dall’inizio un ruolo cruciale nello svolgimento delle operazioni militari. In particolare, l’AI ha reso estremamente più efficiente il processo di targeting, consentendo alle forze armate USA di processare una mole di informazioni significativamente maggiore, e di sostenere un ritmo operativo più elevato rispetto ai conflitti precedenti.

Maven combina immagini e video provenienti da droni, sistemi satellitari, radar e anche semplici foto fatte con uno smartphone, le processa, e fornisce al decisore un elenco di obiettivi in ordine di importanza strategica da colpire. Poi, dopo un eventuale strike, Maven analizza il risultato dell’attacco. Pur tuttavia lasciando al decisore umano la decisione finale, il Pentagono si è permesso di ridurre drasticamente il numero di analisti di intelligence: dai 2000 impiegati per la guerra in Iraq nel 2003, al molto più modesto numero di 20 per l’operazione Epic Fury.

L’AI non è però stata impiegata solo per ragioni offensive in Iran. Il 3 aprile un F-15E Strike Eagle dell’aeronautica statunitense viene abbattuto mentre effettua una sortita nello spazio aereo iraniano. Entrambi i piloti del velivolo riescono ad eiettarsi, e uno viene recuperato dagli americani poco dopo. Del secondo aviatore però si perdono le tracce e inizia una delicatissima operazione di salvataggio. Per più di 48 ore si cerca il disperso, fino alla svolta arriva: il 5 aprile POTUS annuncia che il pilota è stato recuperato dalle forze americane

Gli Stati Uniti hanno impiegato un numero massiccio di asset durante questa operazione di salvataggio, ma la vera novità è stata l’impiego di una tecnologia del tutto nuova, fino ad allora tenuta segreta. Si tratta di Ghost Murmur, un’arma ha sfruttato il segnale elettromagnetico del battito cardiaco, insieme ad un software di intelligenza artificiale, per identificare la posizione precisa dell’aviatore.

Limiti, rischi e ambiguità dell’AI in guerra

Per quanto sorprendente e avveniristico, più tecnologia non significa necessariamente più controllo, o più sicurezza. Secondo alcune testimonianze provenienti dallo U.S. army stesso, Maven identifica correttamente solo il 60% degli obiettivi che analizza, contro l’84% se si impiegano analisti umani. Considerando questo dato, viene piuttosto semplice ricondurre il bombardamento della scuola a Minab ad un tragico errore di valutazione degli obiettivi, in cui l’intelligenza artificiale potrebbe aver giocato un ruolo non indifferente. 

Un altro problema che viene sollevato in questo ambito è il pericolo rappresentato dall’eccessivo affidamento su infrastrutture civili per l’utilizzo di queste nuove tecnologie. Nonostante il  Cloud venga spesso percepito come un qualcosa di astratto e immateriale, esso si basa su infrastrutture fisiche, i data center, che rappresentano obiettivi vulnerabili in un contesto di conflitto. Vista la natura dual use di molti software, che possono essere impiegati in ambito sia civile che militare, il Pentagono fa spesso affidamento sull’uso di infrastrutture civili per usare strumenti di AI. L’Iran ne è consapevole, e proprio per questo ha colpito tre data center di Amazon Web Services (AWS), uno in Bahrain e due negli Emirati Arabi Uniti, con droni e missili. Le potenziali conseguenze di attacchi del genere su vasta scala possono essere devastanti e rappresentano seri rischi per lo svolgimento delle operazioni militari.

Implicazioni geopolitiche e strategiche

L’integrazione dell’intelligenza artificiale nei processi militari non incide soltanto sull’efficacia operativa, ma altera profondamente gli equilibri strategici. L’accelerazione dei tempi decisionali riduce il margine di intervento umano, rendendo più fragile il controllo dell’escalation e rischiando di lasciare alla tecnologia una capacità decisionale sempre più rilevante nei momenti critici del conflitto. Sono numerosi i rischi che questa prospettiva presenta: dalla difficoltà di attribuire la responsabilità per azioni compiute dalle nuove tecnologie, fino a quello di un potere politico che perde il controllo su quello militare, fino al caso estremo in cui i militari stessi perdono il controllo, o l’indipendenza, dalle proprie tecnologie.

Allo stesso tempo, la prospettiva di una ridefinizione del concetto di deterrenza è concreto: la crescente opacità dei software impiegati complica la comprensione tra attori statali; sistemi decisionali rapidi e quasi indipendenti dal decisore umano tolgono spazio al dialogo, alla dottrina e alle tradizionali forme di segnalazione strategica. La deterrenza, fondata sulla prevedibilità del comportamento degli attori, rischia così di diventare meno stabile in un contesto caratterizzato da sistemi opachi e difficilmente interpretabili.

Tuttavia, il processo appare difficilmente reversibile. Il futuro prospetta una sorta di nuova competizione strategica, una seconda guerra fredda basata sulla corsa allo sviluppo di sistemi di intelligenza artificiale sempre più efficienti e performanti. In questo contesto, l’obiettivo di un’autonomia tecnologica sviluppata a livello domestico si scontra con i limiti di un sistema globale fortemente interconnesso e interdipendente come quello odierno.

In questo quadro, l’AI non si limita a potenziare la forza militare di uno stato, ma introduce nuove forme di instabilità sistemica difficilmente prevedibili, con implicazioni dirette sulla sicurezza internazionale e sulla capacità degli stati di gestire il conflitto in modo controllato.

Gli Autori