Evidenza

Dal 2004, il Centro Studi Geopolitica.info contribuisce allo studio delle Relazioni Internazionali e al dibattito sulla politica estera dell'Italia

Chi siamo
20/04/2026
Cyber e Tech, Europa

Il paradosso dell’obbedienza: “Staatsbürger in Uniform” ed Intelligenze Artificiali Servili

di Edoardo Barca

Mentre le democrazie europee hanno codificato il dovere del soldato di rifiutare ordini illegittimi, i sistemi di intelligenza artificiale integrati nelle catene di comando sono spesso progettati per compiacere il decisore. Ripensare l'AI militare in chiave di "dissenso intelligente" è oggi una condizione per salvaguardare vite umane e contenere l'hubris strategico.

Mentre le democrazie europee hanno codificato il dovere del soldato di rifiutare ordini illegittimi, i sistemi di intelligenza artificiale integrati nelle catene di comando sono spesso progettati per compiacere il decisore. Ripensare l’AI militare in chiave di “dissenso intelligente” è oggi una condizione per salvaguardare vite umane e contenere l’hubris strategico.

Nel marzo 2026 la testata di analisi geopolitica House of Saud ha ricostruito la pianificazione dell’intervento militare statunitense in Iran attraverso una chiave interpretativa inedita, come il prodotto di un loop psicotico indotto dall’intelligenza artificiale. Secondo questa lettura, sistemi di wargaming algoritmico avrebbero restituito ai vertici statunitensi scenari di collasso rapido del regime, corridoi di Hormuz sicuri in dodici ore, perdite civili minime — esattamente il tipo di previsione che la dirigenza USA desiderava vedere confermata. Che questa ricostruzione sia o meno verificabile in tutti i dettagli operativi, la domanda che pone è reale: cosa accade quando il principale consigliere algoritmico di uno stato maggiore è progettato per confermare, più che per contestare? 

La ricerca sulla AI sycophancy fornisce un lessico preciso a questo rischio. I modelli di intelligenza artificiale generativa tendono a ottimizzare una serie di metriche costruite per massimizzare il consenso dell’utilizzatore, attraverso meccanismi di training come il Reinforcement Learning from Human Feedback (RLHF). In contesti ad alta pressione decisionale, la macchina può finire per confermare sistematicamente i presupposti del decisore, invece di metterli alla prova. Questa tendenza rischia di innescare un modello decisionale noto nelle organizzazioni militari e diplomatiche: il groupthink, la conformità nel senso di gruppo che riduce lo spazio del dissenso, in netto contrasto con l’evoluzione delle dottrine militari continentali del secondo dopoguerra, che hanno codificato forti limiti al dovere di obbedienza.

In questo paradosso, l’IA si presenta come un soldato ideale: obbediente, efficace, acritico. Proprio questa incapacità strutturale di affermare il dissenso si scontra, però, con la trasformazione culturale della guerra, in cui il singolo ha assunto un valore crescente rispetto agli automatismi di comando. L’IA, così come è progettata oggi, si colloca al centro di un conflitto concettuale: tra una Difesa meccanica, fondata su catene di comando automatizzate e compiacenti, e una Difesa organica, che vive di principi, memoria e della capacità di dire no. 

Nostradamus di silicio

Negli ultimi anni, l’intelligenza artificiale si integra nel panorama militare a una velocità che supera quella dei quadri normativi chiamati a governare. Come già documentato dal Centro Studi, il mercato delle applicazioni AI in ambito militare è stato quantificato nel 2024 in circa 9,56 miliardi di dollari USD, con una crescita annua del 13%. I principali impieghi riguardano i sistemi di puntamento intelligente — come gli applicativi dell’IDF Lavender, The Gospel e Where’s Daddy? — e le piattaforme di analisi e supporto decisionale basate sull’OSINT, tra cui il sistema statunitense Maven. L’obiettivo dichiarato è l’ottimizzazione del ciclo decisionale OODA (Observe, Orient, Decide, Act): comprimere i tempi di risposta a frazioni di quelli gestibili da un operatore umano. Il rischio implicito, già evidente nella letteratura sulla Hyper Warfare, è che questa compressione renda l’uomo l’anello debole del processo.

Nella sfera tattica, l’introduzione dell’IA produce un ribaltamento dottrinale e valoriale nell’interazione strategica umana. I sistemi DSS (Decision Support Systems) nascono come facilitatori del processo decisionale, ma incorporano un rischio strutturale: quello di rendere il decisore progressivamente dipendente dall’output della macchina. In un’analisi prodotta per il Comitato Internazionale della Croce Rossa, Matthias Klaus — già ufficiale dell’esercito tedesco e analista AI per la difesa in Capgemini — identifica questo fenomeno con il nome di Automation Bias: una fiducia acritica nell’elaborazione algoritmica che compromette le capacità di giudizio indipendente degli operatori, fino al cosiddetto deskilling, la progressiva perdita delle competenze critiche non delegate alla macchina. Il problema si amplifica nei contesti di mass production targeting, dove la scalabilità dei DSS si combina con dataset contenenti bias demografici e culturali: una macchina addestrata su dati viziati può giustificare violazioni del diritto internazionale umanitario, senza che nessun operatore ne percepisca la portata.

Come già introdotto, questa dipendenza strutturale dai dati di addestramento è la radice tecnica della AI Sycophancy: il comportamento per cui un modello adatta le proprie risposte alle credenze dell’utente — sviluppate o impartite in fase di training — anche a scapito della verità oggettiva. La sindrome emerge come effetto collaterale delle metriche commerciali di questi modelli. Inoltre, più i modelli crescono di scala e capacità, più la problematica si intensifica, aumentando l’impatto delle metriche di compiacenza proprio quando ci si aspetterebbe maggiore accuratezza. Si tratta dunque d’un rischio di design, con conseguenze dirette in settori come la pianificazione militare.

Deferenza culturale nelle organizzazioni militari

Dopo le esperienze estreme dei conflitti mondiali, che hanno mostrato fino a dove può spingersi l’obbedienza cieca, molte Forze armate hanno iniziato a interrogarsi sui limiti del comando e sul ruolo della coscienza individuale. Il risultato, in Europa, è stata una lenta emersione del “dovere di disobbedienza” quando l’ordine entra in conflitto con valori considerati superiori alla gerarchia: diritto internazionale umanitario, dignità umana, etica professionale, capacità di autocritica. L’esempio più compiuto è quello tedesco. La Gehorsamspflicht — l’obbligo di obbedienza previsto dal §11 del Soldatengesetz — è stata riletta dal Bundesverwaltungsgericht nella sentenza del 21 giugno 2005 (2 WD 12.04): il giudice ha stabilito che l’obbedienza all’ordine è giuridicamente non vincolante quando la sua esecuzione viola la dignità umana, contribuisce a una guerra di aggressione o contrasta con le regole del diritto internazionale consuetudinario richiamate dagli articoli 25 e 26 della Legge fondamentale. Questa interpretazione giurisprudenziale si innesta nella dottrina dell’Innere Führung — il soldato come Staatsbürger in Uniform — un’identità radicata nella coscienza individuale e nella responsabilità critica, non nella sola obbedienza. Conce­pita dal generale Wolf Graf von Baudissin nel dopoguerra, è una formula secondo la quale il soldato deve essere insieme uomo libero, buon cittadino e valoroso soldato. In questo modello, l’“umanizzazione” della catena di comando ha una logica duplice: è etica, perché tutela la norma internazionale e la dignità umana; ed è efficiente, perché riduce il rischio di errori irreversibili generati da un’obbedienza estrema.

L’irruzione dell’intelligenza artificiale si colloca all’estremo opposto di questa traiettoria. Nella misura in cui i sistemi vengono progettati per assecondare l’utente, l’AI diventa un male deleterio sia nel breve che nel lungo periodo: amplifica i bias cognitivi esistenti e rinforza dinamiche di zelo istituzionale. La AI Sycophancy si manifesta come la controparte digitale di una tendenza umana ben nota, ossia la deferenza culturale. L’Inchiesta Chilcot sull’intervento britannico in Iraq nel 2003 resta un caso esemplare di fallimento da deferenza culturale, dove il rapporto del 2016 cita: «judgements were presented with a certainty that was not justified». Oggi la stessa dinamica rischia di essere ereditata e intensificata quando si utilizzano, in contesti operativi, modelli linguistici nati per il mercato consumer, riconvertiti informalmente a usi militari e strategici. In questo passaggio, un difetto pensato come tollerabile nel dominio commerciale diventa un rischio strategico strutturale.

Per poter utilizzare correttamente questi sistemi, serve una contro-risposta: un meccanismo di disobbedienza consapevole incorporato nella macchina. Nel 2025, Reuth Mirsky propone un modello di Artificial Intelligent Disobedience che funziona come un sanity check algoritmico, analogo funzionale al dovere di disobbedienza del soldato. Il modello si articola in una sequenza di fasi — dall’inferenza degli obiettivi globali, alla ricostruzione del piano umano, fino al controllo di coerenza e alla mediazione in caso di conflitto — con l’obiettivo di permettere al sistema di riconoscere gli ordini che lo porterebbero a contribuire a esiti dannosi o illeciti e di proporre alternative. Le utilità sono multiple: ridurre le escalation non calcolate, contenere gli errori di targeting, introdurre un freno strutturale nelle crisi ad alta intensità. In altri termini, si tratta di un intervento tecnico per contrastare un difetto umano ereditato nella macchina: la deferenza.

Yes-Man europei?

Le dinamiche fin qui descritte non sono prive di una declinazione regionale. L’Europa si trova oggi in una posizione ambigua sul tema dell’intelligenza artificiale militare: consapevole della sfida, ma strutturalmente in ritardo rispetto ai competitor strategici. Come documentato da recentemente dal Centro Studi, il gap dottrinale e finanziario tra il versante atlantico e quello europeo è già ampio: il Pentagono ha allocato 1,8 miliardi di dollari per applicazioni AI militari solo nel 2024, mentre l’European Defence Fund fatica a coordinare risorse comparabili su ventisette sistemi nazionali con priorità divergenti. Il rischio non è solo quantitativo. L’affidamento crescente a piattaforme di analisi e supporto decisionale di produzione statunitense — come nel caso Palantir — ripropone la stessa logica di dipendenza strutturale già vista con l’F-35: un debito di sovranità che, in caso di crisi, può tradursi in leva diplomatica nelle mani dell’alleato fornitore. Se a questo si aggiunge che le valutazioni AI-assisted riflettono i bias dei loro committenti e dei dataset su cui sono addestrate, i rischi di errori di calcolo grossolani nelle decisioni su Mediterraneo allargato, Sahel ed Europa orientale diventano tutt’altro che ipotetici.

La risposta istituzionale euroatlantica esiste, ma si muove ancora a livello di principi. La NATO, con la sua Revised AI Strategy del luglio 2024, ha introdotto sei Principi di Utilizzo Responsabile come cornice normativa per l’adozione dell’AI in ambito alleato. Sul versante comunitario, il Regolamento UE 2024/1689 (AI Act) esclude dall’ambito applicativo i sistemi a uso esclusivamente militare, ma non quelli a doppio uso: per questi ultimi, la governance rimane obbligatoriamente ancorata al diritto internazionale umanitario e alla giurisprudenza della Corte di Giustizia UE. A livello multilaterale, il framework REAIM — sottoscritto da 61 nazioni con il Blueprint for Action di Seoul 2024, in attesa del terzo Summit di Madrid nel 2026 — mette sul tavolo delle trattative il controllo funzionale umano, l’accountability e la conformità al DIU come standard minimi per l’impiego responsabile dell’AI militare.

Una risposta continentale più concreta si sta tuttavia sviluppando. La Francia ha siglato nel gennaio 2026 un contratto tra il Ministère des Armées e Mistral AI, coordinato dall’AMIAD, per costruire una filiera sovrana sui modelli fondazionali per la difesa: un tentativo esplicito di non replicare la dipendenza da sistemi extra-europei. In Germania, Helsing — unicorno della software-defined defence — punta su AI per sensor fusion e sistemi C2, dimostrando che la BITD europea può competere sul terreno algoritmico, non solo su quello dell’hardware tradizionale. La sfida di progettare sistemi di supporto decisionale che incorporano meccanismi di contestazione strutturata, conformità al diritto internazionale e trasparenza degli output non è un lusso etico: è la condizione perché l’Europa non si ritrovi, nei momenti decisivi, con una catena di comando piena di yes-man digitali.

Gli Autori