Evidenza

Dal 2004, il Centro Studi Geopolitica.info contribuisce allo studio delle Relazioni Internazionali e al dibattito sulla politica estera dell'Italia

Chi siamo
30/06/2025
Cyber e Tech

Il futuro della difesa nell’era dell’Intelligenza Artificiale: opportunità e rischi della nuova frontiera dell’uso della forza

di Anna Calabrese

Dai cieli dell’Ucraina alle strategie di difesa europea, l’Intelligenza Artificiale è ormai protagonista nella trasformazione del modo di fare la guerra. Droni autonomi, sistemi predittivi e algoritmi decisionali riscrivono le logiche del potere militare, mentre la corsa globale alla supremazia tecnologica — guidata da USA, Cina e Russia — alimenta nuove tensioni strategiche. In questo scenario ad alta instabilità, l’Unione Europea punta sull’integrazione dell’IA come leva per l’autonomia difensiva, cercando al contempo di preservare il proprio primato etico e giuridico. Ma quali sono i reali vantaggi operativi dell’IA e quali i rischi? E come si bilancia l’innovazione con la responsabilità umana e il rispetto del diritto internazionale?

Dai cieli dell’Ucraina alle strategie di difesa europea, l’Intelligenza Artificiale è ormai protagonista nella trasformazione del modo di fare la guerra. Droni autonomi, sistemi predittivi e algoritmi decisionali riscrivono le logiche del potere militare, mentre la corsa globale alla supremazia tecnologica — guidata da USA, Cina e Russia — alimenta nuove tensioni strategiche. In questo scenario ad alta instabilità, l’Unione Europea punta sull’integrazione dell’IA come leva per l’autonomia difensiva, cercando al contempo di preservare il proprio primato etico e giuridico. Ma quali sono i reali vantaggi operativi dell’IA e quali i rischi? E come si bilancia l’innovazione con la responsabilità umana e il rispetto del diritto internazionale?

L’Intelligenza Artificiale come moltiplicatore strategico della potenza militare

Il settore militare è oggi uno dei contesti in cui l’uso sempre più rilevante e pervasivo dell’intelligenza artificiale solleva riflessioni e considerazioni dal punto di vista operativo, strategico ed etico-legale. Non secondariamente dunque agli ambiti civile ed industriale, in ambito militare oggi l’Intelligenza artificiale rappresenta una delle principali aree di investimento, con un mercato globale stimato in circa 9,56 miliardi di dollari nel 2024 e una crescita annua prevista di circa 13% nei prossimi 5 anni

Sin dagli anni dieci del XXI secolo circa e l’inaugurazione della IV° rivoluzione industriale, caratterizzata dalla convergenza di sistemi digitali, fisici e biologici capace di rivoluzionare i processi, l’intelligenza artificiale si è affinata grazie all’espansione della disponibilità di dati, alla potenza di elaborazione dei computer e agli sviluppi nell’apprendimento automatico, dimostrando il suo dirompente potenziale in diversi settori. Questo potenziale è però di natura peculiare: l’intelligenza artificiale è la tecnologia dual-use odierna per eccellenza, che può essere dunque utilizzata e bidirezionalmente convertita per scopi sia civili che militari. E’ allora chiaro quanto all’epoca della “corsa all’innovazione” si aggiunga un layer di complessità ulteriore al dilemma della sicurezza, in quanto gli attori non conoscono le intenzioni – pacifiche o aggressive – degli altri giocatori nello sviluppare ed acquisire tecnologie, soprattutto perché ciascuna di esse può, in qualsiasi momento, essere trasformata in soluzione dual-use con estrema semplicità e minimizzando gli sforzi economico-pratici. 

Dimostrazione eloquente del carattere dirompente dell’AI nell’equilibrio del potere in termini strategici è la definizione del concetto di “powerforce” o “capacità militare” da parte del Dipartimento della Difesa statunitense come “la capacità di raggiungere un determinato obiettivo di combattimento (vincere una guerra o una battaglia, distruggere un obiettivo prefissato)”. Essa è influenzata significativamente – più o meno direttamente – dal livello di modernizzazione e sofisticazione tecnica dell’equipaggiamento e dell’arsenale in possesso, rendendo dunque l’intelligenza artificiale vera e propria acceleratrice delle capacità militari e dei processi di decisione, assicurando superiorità

Applicazioni operative dell’Intelligenza Artificiale nel settore militare contemporaneo

La superiorità sul campo di battaglia si traduce, oggi in maniera ancora più rilevante di allora, nella capacità di “percepire, dare un senso e agire”. L’attrattività dell’intelligenza artificiale è stata riconosciuta proprio nella sua potenzialità di consentire superiorità decisionale, sfruttando i dati e minimizzando i rischi, consentendo velocità e agilità dei processi di valutazione. La realtà odierna suggerisce uno scenario di incremento nell’integrazione delle soluzioni AI nel ciclo decisionale “Observe, Orient, Decide and Act”, sollevando non poche perplessità e preoccupazioni. Questo modello, sviluppato dallo stratega militare statunitense John Boyd, è stato ed è tuttora utilizzato per comprendere, prevedere e ottimizzare i processi di decision making a livello strategico, allo scopo di completare il ciclo decisionale il più rapidamente ed efficientemente possibile in modo da consentire adattabilità e flessibilità in scenari mutevoli.

Nella fase di osservazione (“Observe”) del paradigma, è ormai consolidato l’uso dell’AI per la raccolta dati tramite sensori, droni, satelliti e sistemi di sorveglianza per incrementare la situational awareness, rilevare potenziali minacce e consentendo dunque ai decisori una valutazione rapida e resiliente dell’evoluzione degli eventi sul campo di battaglia. Nella fase di orientamento (“Orient”), ovvero lo stadio di sintesi e analisi delle informazioni raccolte, l’AI risulta rivoluzionaria nel facilitare, ottimizzare e velocizzare l’elaborazione dei dati, identificando tendenze rilevanti e generando modelli predittivi per orientare l’azione in vista del comportamento atteso dalla controparte o dall’ambiente operativo. Sebbene l’affidamento all’intelligenza artificiale nei primi due stadi non sia privo di criticità e rischi, il recente e sempre più consolidato implemento di tecnologie autonome basate sull’AI nella fase “Decide” solleva perplessità e preoccupazioni soprattutto di natura etico-legale e in riferimento ai principi umanitari applicabili durante i conflitti armati. Il processo decisionale viene infatti supportato da algoritmi che permettono di selezionare il best course of action o COA in gergo militare, valutandone i possibili esiti attraverso simulazioni di scenari e valutazioni probabilistiche. 

Questa applicazione assume particolare rilevanza nel caso di sistemi d’arma automatici, in particolare quelli basati sull’apprendimento automatico. Fondando la risposta sull’esperienza, essi agiscono in scenari incerti e inediti diluendo notevolmente il legame essenziale tra la decisione umana e l’uso della forza, principio fondamentale nel diritto umanitario volto alla limitazione delle conseguenze dei conflitti armati e alla definizione della responsabilità. Infine, nella fase di azione l’IA facilita l’esecuzione delle azioni selezionate assicurando, soprattutto se applicata ai sistemi d’arma autonomi come già osservato, precisione, velocità e coordinamento sia nella fase di targeting che nelle manovre logistiche. 

Nel caso degli Autonomous Weapons Systems o AWS, è essenziale evidenziare che in questa fase l’elemento dell’interazione uomo-macchina risulta cruciale. I sistemi d’arma autonomi basati sull’AI si suddividono infatti in armi “human-in-the-loop”, in cui la macchina ha il solo obiettivo di selezionare il target contro il quale la forza sarà diretta attraverso il comando umano, i sistemi “human-on-the-loop” che utilizzano invece la forza con la supervisione umana, mentre il paradigma “human-out-of-the-loop” si caratterizza per il minimo livello di controllo, talvolta senza necessità di input per l’esecuzione della forza. 
I diversi sistemi di AI hanno in comune la capacità di comprendere e relazionarsi con l’ambiente orientando il proprio comportamento ad un obiettivo dato, attraverso la sintesi delle informazioni e dell’esperienza collezionata dalle azioni precedenti. Esistono però diverse applicazioni della stessa ed è possibile distinguerle secondo sette diversi modelli, i cui caratteri ne determinano gli usi e le funzioni. Viene fornita di seguito una tabella che riassume gli attuali modelli di AI utilizzati nel settore militare e la loro applicazione trasversale, dalle fasi di training a quelle di planning e decisione.

Modello di AIUtilizzo in ambito militareEsempio
Goal-driven systemsCoordinamento logistico automatico durante le missioni.Progetto MCL dell’Esercito USA, che utilizza algoritmi di AI per ottimizzare i percorsi della catena di approvvigionamento, garantendo la consegna tempestiva di rifornimenti essenziali alle truppe in zone di combattimento attive.
Sistemi autonomi Robot esploratori autonomi per analisi di ambienti CBRN (chimici, biologici, radiologici, nucleari)LMI ha fornito un prototipo di capacità rapida che emula le nuove tecnologie di rilevamento CBRN in ambienti operativi. Il prototipo simulato di rilevamento delle minacce CBRN integra velivoli e veicoli terrestri senza pilota, radar terrestri e sensori specifici per agente.
Human conversation & interactionInterfacce vocali integrate nei visori per fanteria – HUD interattiviPartnership tra Microsoft e Anduril per Integrated Visual Augmentation System (IVAS) dell’esercito degli Stati Uniti per fornire aggiornamenti di missione, meteo, mappe o informazioni di targeting al personale.
Analisi predittiva & decisionePredizione dei movimenti nemici basata su dati storici in tempo reale (uso di immagini satellitari, intercettazioni, pattern analysis)Project Maven” statunitense, che utilizza l’apprendimento automatico per analizzare il campo di battaglia. Oggi utilizzato in Yemen, Iraq e Siria
Iperpersonalizzazione Uso delle GAN (generative adversarial network) per l’addestramento personalizzato dei soldatiAI per biofeedback personalizzato per l’addestramento e la riabilitazione in ambito militare
Supporto decisionale Creazione di simulazioni e scenari per analisi delle conseguenze e supporto alla decisioneIniziativa NATO “DIANA” (Defence Innovation Accelerator) uso dell’AI nel processo decisionale in operazioni di coalizione, sfruttando dati condivisi tra più nazioni per coordinare risposte rapide a situazioni in evoluzione
Riconoscimento di pattern e anomalie Rilevamento di anomalie e potenziali minacce attraverso analisi di segnali radio e immaginiAI integrata in sistemi come il drone Raven, soddisfa i requisiti di ricognizione a bassa quota, sorveglianza, acquisizione di obiettivi. 

Oltre la potenza di calcolo: vulnerabilità decisionali dell’IA in guerra

Sebbene si evinca dunque come l’integrazione delle capacità di analisi e sintesi algoritmica al ciclo OODA e le diverse applicazioni sopra citate abbiano rivoluzionato i processi decisionali e le capacità operative nel settore della difesa, essa risulta problematica in virtù della natura intrinseca del fenomeno a cui l’arte militare si rivolge, ovvero la guerra e l’uso della forza. 

La guerra, sostiene Clausewitz, è un vero e proprio “camaleonte”, i cui caratteri di casualità e imprevedibilità – che lo stratega ottocentesco chiama “friction” e che il comandante sapiente è capace di sfruttare per ottenere vantaggio strategico – rendono improbabile la categorizzazione delle sue manifestazioni in modelli preconfezionati e sequenziali di azione e controreazione come invece si tenta di fare con la sintesi algoritmica. Mentre, dunque, la pervasiva adozione dei sistemi di AI ha avuto successo indiscusso in ambiti civili (sanità, settore commerciale) nel supporto a processi decisionali lineari, nel contesto militare-strategico la questione è ben più critica. L’automazione risulta infatti vantaggiosa soprattutto quando è possibile unire informazioni di alta qualità a valutazioni accurate e in larga misura prevedibili, condizione carente durante i conflitti e le crisi, in cui l’informazione è scarsa e asimmetrica. Ne risulta che le macchine operanti in ambienti incentrati sull’uomo caratterizzati da attrito, casualità e interazione difficilmente colgono in maniera certa e stabile la non-linearità, mentre la componente decisionale umana, che intreccia fattori psicologici, sociali, culturali (individuali e organizzativi), ideologici, emotivi, esperienziali e fortunati, offre agli esseri umani un’opportunità di esprimere giudizi politici ed etici con lucidità nella “nebbia” della guerra.

Sebbene oggi numerose applicazioni dell’intelligenza artificiale rispondano al paradigma “human-in-the-loop” o “on-the-loop” e quindi contemplino un allineamento e coordinamento  con l’azione umana, la fiducia nel lavoro di squadra uomo-macchina nel settore militare rischia di sminuire il ruolo del “genio” umano e di ridurre la flessibilità, adattabilità, creatività e preparazione psicologico-etica dei comandanti. Inoltre, è manifesto come anche algoritmi ottimizzati possano essere vulnerabili a conseguenze indesiderate e effetti farfalla, come corruzione di dati derivante da attacchi cyber, incorporazione e riproduzione di bias che l’AI non può prevedere e contrastare. E’ infine rilevante sottolineare un’ulteriore rischio operativo che coincide con la potenziale implementazione inappropriata degli algoritmi e la conseguente generazione di falsi positivi, con l’inavvertito innesco di escalation se applicati a processi decisionali in contesti non-lineari. 

A questo proposito il CSIS Future Lab ha condotto uno studio su come i modelli di AI a linguaggio esteso o LLM affrontano il processo decisionale in politica estera relativo alla competizione tra grandi potenze e gestione di alleanze in scenari di crisi transnazionali quali migrazione e cambiamento climatico. La ricerca ha analizzato i principali e più diffusi modelli (Chat GPT, Gemini e LLaMA) e il loro comportamento in 400 scenari con oltre 60 mila coppie di domanda-risposta elaborate da esperti. I risultati hanno dimostrato come essi offrano un supporto utile al decision making, pur soffrendo però di bias e imprecisioni che in ambiti ad alta sensibilità strategica possono produrre side effects non trascurabili. Interessante è inoltre la propensione all’escalation che alcuni modelli sembrano presentare laddove chiamati a reagire a scenari di crisi, fornendo risposte più aggressive. L’escalation involontaria dipende, in sintesi, dalla “compressione temporale” delle valutazioni critiche, dallo sviluppo di comportamenti competitivi non anticipati in contesti multi-agent e dall’interpretazione errata di fattori ambigui nel contesto strategico e di interazione, oltre che dalla componente umana di affidamento eccessivo ai sistemi automatizzati. 

Alla luce di queste considerazioni, quindi, è essenziale che i modelli, sistemi e comportamenti C2 (command and control) nel futuro non siano statici, deterministici e lineari, bensì autoadattanti e agili. Soluzioni di questo tipo non devono però ridurre l’importanza del coinvolgimento umano: l’uomo sarà anzi ancor più necessario e andrà formato e preparato in modo differente dal passato, orientando la futura formazione e addestramento militare verso l’urgenza di bilanciare dati e algoritmi con l’intuizione, i valori e l’etica umana. 

Governare l’algoritmo: il Diritto Umanitario dei Conflitti Armati alla prova dell’AI

Con l’avanzare delle capacità dell’intelligenza artificiale e la comprovata fiducia che il settore militare nutre in essa, aumentano anche le preoccupazioni circa applicazioni potenzialmente lesive nei confronti di principi legali. In particolare l’intersezione tra AI e diritto internazionale dei conflitti armati (DIU) pone inedite sfide e solleva importanti interrogativi circa la liceità dei sistemi autonomi nei conflitti armati. 

La tutela e la garanzia di minimizzazione delle atrocità e delle conseguenze durante i conflitti armati sono fornite dal quadro vigente composto dalle Convenzioni di Ginevra e dai suoi Protocolli Aggiuntivi. Secondo l’art.22 del Regolamento concernente le leggi e gli usi della guerra terrestre dell’Aia (1907) “il diritto dei belligeranti di adottare mezzi per nuocere al nemico non è illimitato”: ne consegue che le parti di un conflitto sono tenute a rispettare i principi di distinzione, proporzionalità, umanità e necessità militare. Comprendere la relazione tra i primi due dei principi sopra citati, particolarmente problematici e sensibili alla luce delle nuove tendenze belliche, e l’utilizzo dell’AI in guerra è pertanto cruciale. Sebbene vi siano posizioni circa il potenziale delle tecnologie emergenti nel proteggere in maniera più accurata la popolazione civile, facilitando una raccolta di dati più veloce ed estesa, i sistemi autonomi ad intelligenza artificiale potrebbero non avere la capacità di interpretare la differenza tra civili e belligeranti, e osservare dunque il principio di distinzione. Allo stesso modo, la carenza nella comprensione di fattori contestuali renderebbe una macchina poco efficace alla valutazione della proporzionalità, la quale mira a limitare i danni causati dalle operazioni militari richiedendo che gli effetti dei mezzi e dei metodi di guerra impiegati non siano sproporzionati rispetto al vantaggio militare ricercato. La carente unanimità nella definizione di quest’ultimo, unita al carattere necessariamente umano della sua valutazione, richiedono dunque che qualsiasi attacco avvenga attraverso un ragionamento umano deliberato. 

È Inoltre rilevante sottolineare il gap di responsabilità in casi di violazioni dei principi del DIU da parte di sistemi autonomi e la sfida di attribuzione della stessa. Ciononostante, alcuni studiosi propongono soluzioni che rientrano nel più ampio concetto di “responsabilità di comando”, in cui gli agenti umani possono essere ritenuti responsabili in virtù del ruolo di supervisione della macchina, fino a proporre la diretta responsabilità degli sviluppatori. Entrambe le opzioni non sono scevre però di criticità applicative oltre che di implicazioni etiche, le quali rischiano di precludere la necessaria attribuzione di eventuali crimini e atrocità. 

In ultima istanza, occorre riflettere sulla presunta incompatibilità della sintesi algoritmica nella decisione circa l’uso della forza con il principio di “umanità”: già nel XIX secolo la clausola di St.Martens affermava che “nei casi non coperti dai trattati esistenti, i civili e i combattenti rimangono protetti dal diritto umanitario internazionale consuetudinario, dai principi di umanità e dai dettami della coscienza pubblica”, consolidando il concetto per cui il giudizio umano è essenziale. 

Se è vero, infine, che i trattati vigenti non affrontano in maniera esplicita l’uso dell’AI e delle armi autonome, lasciando spazio a una lacuna normativa, l’elasticità e adattabilità alle trasformazioni della guerra del sistema di IHL viene fornito dall’art.36 del Protocollo Aggiuntivo I, il quale sancisce che “nello studio, sviluppo, acquisizione o adozione di una nuova arma, mezzo o metodo di guerra, un’Alta Parte contraente ha l’obbligo di determinare se il suo impiego sarebbe proibito dal presente Protocollo o da qualsiasi altra norma di diritto internazionale applicabile”. Tuttavia, in ragione del continuo progresso e della tendenza a considerare l’AI “l’arma più potente del nostro tempo”, gli esperti concordano circa l’urgente necessità di stabilire normative vincolanti specifiche per l’intelligenza artificiale. All’interno delle Nazioni Unite sono in corso riflessioni sullo sviluppo di convenzioni e strumenti di regolazione per impedire un uso dell’AI improprio che comprometta la pace e la sicurezza globali.

Dal soft power al code power: l’UE e la sfida della regolazione dell’IA militare

Nel recente White Paper sul futuro dell’Europa si riconosce l’importanza della trasformazione digitale e la necessità di rafforzare la capacità tecnologica e regolatoria dell’UE nel settore come parte degli sforzi per assicurare una difesa comune autonoma e resiliente alle attuali sfide globali. Confermando la tendenza circa l’uso dell’AI nel settore della difesa e in particolar modo per la protezione da minacce ibride, l’UE si presenta come leader della ricerca scientifica e tecnologica nel settore, inserendosi nella più ampia dinamica di competizione per la corsa all’innovazione. 

In un contesto come quello odierno in cui Stati Uniti e Cina sembrano contendersi la leadership globale nel campo dell’AI, l’Unione Europea necessita di investire più risorse, come si sottolinea nel White Paper. Sebbene però il divario tra UE e USA in termini di investimenti sfiori circa i 10 miliardi di euro, ciò non significa che l’UE debba necessariamente “diventare più grande” e aumentare le risorse in maniera indiscriminata. Gli sforzi dell’UE dovrebbero infatti concentrarsi, come il nuovo AI Act implementato a febbraio sostiene, sulla promozione di un’intelligenza artificiale sostenibile, responsabile, giusta, affidabile e coerente coi principi europei. Ciò è particolarmente vero se applicato all’AI nel settore militare, la cui governance europea non può prescindere dalla tutela dei valori fondamentali di responsabilità, controllo umano e rispetto del diritto umanitario, consentendo a Bruxelles di imporsi come “leader etico-normativo” promuovendo la centralità umana nella regolazione dei sistemi autonomi e delle soluzioni AI-driven. 

A questo fine sarà necessario superare i limiti interni all’Unione sulla difesa, agendo come potenza normativa e standard-setter facendo leva sui valori comuni degli Stati Membri e creando spazi di cooperazione e investimento condiviso con il Fondo Europeo per la Difesa. Oltre a dare impulso a forum multilaterali come la Convenzione Onu sulle armi convenzionali e crearne di nuovi con gli stakeholder della difesa europea, occorre però un approccio pragmatico funzionale alla promozione di standard di regolamentazione dell’AI il più condivisi e globali possibili. A questo proposito, si suggerisce che l’UE raggiunga accordi minimi condivisi e strategici anche con stati non democratici e non allineati ai suoi valori, come la Cina. 

Un realistico bilanciamento di valori ed interessi strategici è allora funzionale alla promozione di un utilizzo militare dell’AI coerente con la tutela della sicurezza e della pace, oltre che all’affermazione globale di un’UE autonoma e leader regolatrice di un settore tanto cruciale per assicurare visione e superiorità nelle sfide odierne. 

Conclusioni

L’impiego dell’intelligenza artificiale nel settore militare rappresenta oggi una delle sfide più complesse e rilevanti per la sicurezza internazionale. Mentre le sue applicazioni promettono vantaggi operativi significativi — dalla superiorità decisionale alla precisione tattica — emergono con forza criticità giuridiche, etiche e strategiche che non possono essere ignorate. In un contesto globale segnato da instabilità e competizione tecnologica tra grandi potenze, l’Unione Europea si trova a un bivio: trasformare la propria ambizione di autonomia strategica in una leadership normativa credibile, capace di promuovere un utilizzo dell’IA militare coerente con i principi di responsabilità, controllo umano e rispetto del diritto internazionale umanitario. La sfida, oggi più che mai, è coniugare innovazione e umanità per governare una tecnologia che rischia altrimenti di sfuggire al controllo politico e giuridico.

Gli Autori