Il leak dello scorso aprile riguardante Anthropic Mythos — il modello di intelligenza artificiale progettato per identificare vulnerabilità e concatenare exploit complessi, considerato “troppo pericoloso per il rilascio al pubblico” — non si configura come un semplice incidente di sicurezza informatica. La fuga di informazioni, originata dalla compromissione di un’impresa terza nel programma Glasswing, dimostra plasticamente come le capacità di offesa sul piano cyber siano oggi padroneggiate e gestite da attori privati. L’esistenza stessa di Mythos solleva un interrogativo per la stabilità occidentale: chi detiene concretamente il potere di offesa e deterrenza in un ordine internazionale dove il codice privato sostituisce segmenti critici degli arsenali convenzionali?
Questa dinamica non è un caso isolato, ma si sviluppa lungo la stratificazione industriale dell’intelligenza artificiale militare evidenziata dal SIPRI. Lo stack tecnologico — dalle infrastrutture ai modelli fondativi e applicativi — è dominato da un oligopolio di fornitori che trascendono la funzione di semplici produttori per assumere quella di co-decisori delle opzioni strategiche nazionali. Il ruolo di Palantir come aggregatore di dati per i governi statunitense e britannico è ottimo in tal senso. Quando un attore delle “Big Tech” definisce una politica di accesso alle proprie API o protocolli di sicurezza per i propri LLM, non compiendo solo politica commerciale, ma esercitando una funzione pseudo-normativa che condiziona le capacità di difesa degli Stati, la cui sovranità dipende sempre più da architetture software proprietarie.
Una pressione sostanziale sulle funzioni pubbliche impone un nuovo inquadramento per questi attori. La capacità di stabilire standard de facto sulla sicurezza globale e sulla modulazione dual-use dei prodotti — si pensi all’integrazione del sistema Lattice di Anduril Industries nella difesa olandese — non può più essere relegata a una responsabilità parziale di entità non statali. Mentre il diritto internazionale umanitario e le convenzioni esistenti continuano a focalizzarsi sullo Stato come unico soggetto responsabile, le azioni delle imprese tecnologiche navigano in una “zona grigia” normativa. In questo spazio, la responsabilità politica e giuridica si frammenta pericolosamente tra sviluppatori, appaltatori e venditori, lasciando l’ordine internazionale privo di strumenti per regolare suddette nuove istituzioni industriali.
Uno Stato troppo lento, un Privato troppo veloce
Seguendo la tassonomia SIPRI, l’ecosistema delle IA militari si struttura su tre livelli interdipendenti: infrastrutture (chip, data center e cloud), modelli fondativi (LLM e framework addestrativi) e uno strato applicativo, integrato nei sistemi d’arma, nelle reti di comando e controllo (C2) e nelle piattaforme ISR. Il primato tecnologico non è più esclusivamente nelle mani dei grandi prime contractor della difesa, ma si è spostato verso nuovi attori, i neoprimes (come Anduril o Helsing), che controllano i nodi critici della ricerca algoritmica militare.
Questi attori industriali sono divenuti centrali per la loro capacità di definire standard tecnici, dalla gestione dei log alla spiegabilità dei modelli, fino alle interfacce uomo-software, agendo come una vera e propria costituzione tecnica delle operazioni. Come evidenziato da analisi del Centro Studi sulle tecniche di Reinforcement Learning from Human Feedback (RLHF) e sulla compressione del ciclo OODA, le scelte architetturali non sono mai neutre: esse prefigurano i limiti del possibile sul campo, costruendo il Decision-Support System (DSS) su cui il comandante esercita la sua volontà. Il fornitore, dunque, non è più un artigiano, ma un attore politico che modella la base materiale della sovranità statale, con possibili agende private o perlomeno miopia decisionale nei confronti dei cittadini non consumatori.
Simili dinamiche, in cui il confine tra scelta industriale e decisione pubblica è molto poroso di design, creano un contesto che possiamo definire di co-politica? Uno studio di Technology and Regulation espone che l’asimmetria di competenze tra Stato e Big Tech costringe, per ignoranza, a delegare la soddisfazione delle necessità per la sovranità digitale oltre la semplice produzione, andando a sfociare in una delega sostanziale delle agende ministeriali alle imprese. Le imprese influenzano così le narrative sulla Responsible AI per modellarle attorno ai propri standard proprietari, come osservato nei dibattiti legati alla Political Declaration statunitense sull’automazione militare.
In questo quadro, il caso Mythos compare sui radar come la conseguenza naturale di questo sbilanciamento di potere. Sviluppato in un ambito puramente privato e confinato a un consorzio industriale ristretto, il modello della società guidata da Dario Amodei dimostra come la vulnerabilità degli apparati di sicurezza risieda ormai nelle pieghe della catena del valore civile. Lo Stato si scopre dipendente da infrastrutture e modelli fondativi che non controlla, né può verificare pienamente, sancendo l’ascesa del privato tecnologico come istituzione determinante della sicurezza internazionale.
Regolare l’AI militare oltre il paradigma statale
L’architettura del diritto internazionale contemporaneo continua a fondarsi su un’impostazione profondamente statocentrica. Gli istituti giuridici classici come la regolamentazione dell’uso della forza, la responsabilità per atti illeciti e in generale gli obblighi alle parti in conflitto muovono infatti del presupposto irrinunciabile degli Stati sovrani come principali titolari e custodi del diritto. Tale impianto entra tuttavia in tensione nel contesto bellico odierno in cui l’evoluzione dei sistemi di intelligenza artificiale applicati alla difesa mettono in crisi il paradigma, come dimostrato nei casi sopra citati: gli attori privati che progettano, addestrano, aggiornano e mantengono le capacità tecnologiche non coincidono necessariamente con i soggetti formalmente regolati dal diritto internazionale, creando una sorta di “capability without responsibility”.
L’asimmetria tra controllo tecnologico e responsabilità giuridica rende il quadro normativo internazionale insufficiente e fragile. La risoluzione ONU del 2025 sui sistemi d’arma autonomi (LAWS) ne è la prova: nonostante l’ampia maggioranza, l’opposizione dei principali attori militari, tra cui USA, Russia e Israele, ne esautora l’efficacia. Anche il recente vertice di Ginevra del marzo 2026, svoltosi nella Convention on Certain Conventional Weapons (CCW), ha mostrato i limiti del metodo consensuale nel definire uno strumento vincolante: il tentativo di includere ogni attore chiave finisce per allargare le maglie regolatorie, attenuando gli obblighi sostanziali. In questo stallo, iniziative come la già citata Political Declaration o il processo REAIM continuano a trattare il settore privato puramente come uno stakeholder consultivo, ignorandone la trasformazione in un ente di governance. Occorre dunque un cambio di paradigma che riconosca alle Big Tech la loro centralità infrastrutturale, costruendo regimi di responsabilità coerenti con il potere che esse esercitano nei fatti.
Se l’hard law fatica a tenere il passo, gli strumenti più promettenti per gestire l’inarrestabile sviluppo delle nuove tecnologie nel settore militare vanno cercati altrove. Uno di questi è il procurement pubblico: come evidenziato anche nei lavori dello Stockholm International Peace Research Institute sul responsible procurement of military AI, gli appalti possono costituire una risorsa in quanto più concreto spazio di contatto tra il pubblico e il privato. Va normato, infatti, anche il modo in cui l’AI viene acquistata, adottata e integrata. Attraverso requisiti tecnici, clausole contrattuali, procedure di testing e auditing, mitigazione dei bias, trasparenza dei dati e in generale un alto coinvolgimento dei fornitori e dell’utente finale, si può tradurre il procurement come principale leva per rendere concreta la governance responsabile dell’AI. Alcuni eserciti e ministeri stanno già mostrando una sensibilità inedita, implementando riforme degli appalti nel settore difesa (come in Ucraina, Svezia e USA).
A questa logica si affianca la traiettoria di una potenziale estensione di modelli già sperimentati in altri settori critici e non eminemente militari: il diritto europeo con la Direttiva NIS2 e l’AI Act offre un precedente rilevante, poiché cybersecurity, standard tecnici, governance del rischio e resilienza sono imposti direttamente dalla legislazione UE agli operatori privati e alle imprese. Tradurre questa impostazione nella gestione delle forniture di AI significherebbe riconoscere la funzione infrastrutturale critica, che produce effetti tanto sul piano strategico-militare quanto su quello civile, in una logica intrinsecamente dual-use.
Emerge poi un terzo spazio di opportunità legato alla progettazione tecnica: recenti ricerche sulla Law-Following AI suggeriscono la possibilità di progettare sistemi capaci di incorporare vincoli normativi direttamente nelle architetture operative. Il potenziale rischio di autoregolazione privata derivante da tale opzione suggerisce l’esigenza di un attivismo regolatorio multistakeholder, capace di operare nei forum europei e internazionali e di integrare Stati, imprese e comunità epistemiche nella definizione di standard condivisi.
La “Repubblica Tecnologica” di domani tra manifesto ideologico, lobbying, e nuovo ordine internazionale
Nel suo manifesto ideale, la “Repubblica Tecnologica“, l’amministratore delegato di Palantir Technologies, Alex Karp, provoca il lettore implicando come le aziende tecnologiche (ascendendo a un ruolo cardine nell’approvvigionamento della difesa nazionale) stiano diventando entità politiche autonome, capaci di condizionare la realtà statale. Questa trasformazione è alimentata dalla loro capacità di competere con gli stessi Stati che riforniscono per la protezione, e implicitamente per la definizione, dei valori democratici e della sicurezza nazionale. Sebbene permeata da una forte retorica industriale, la tesi di Karp dimostra una verità di fondo: il privato tecnologico è oggi il garante materiale delle capacità sovrane di uno Stato e, di conseguenza, un suo potenziale competitore strategico.
Questa evoluzione ci pone in una condizione di profonda incertezza. Per superare l’attuale instabilità è necessario passare da una gestione disorganizzata a una stabilizzazione istituzionale della rappresentanza industriale. Invitare le imprese ai grandi forum internazionali — si osservi l’eclatante sovraesposizione mediatica di Palantir a Davos 2026 — è ormai insufficiente. Occorre definire criteri fondamentali di riconoscimento e di “cattura normativa” per i diversi segmenti dello stack tecnologico, evitando che l’imposizione industriale scavalchi il potere di agenda-setting degli attori pubblici.
In questo scenario, l’Unione Europea si trova a un bivio fondamentale nel pieno della sua conversione industriale verso l’autonomia strategica. In questa fase, Bruxelles deve decidere quale modello di rapporto Stato-privato adottare. Strumenti la PESCO non possono limitarsi a essere semplici meccanismi di finanziamento e coordinamento, ma devono integrare requisiti stringenti di accountability e responsabilizzazione. L’obiettivo ultimo deve essere evitare una “corsa all’oro” dei nuovi neoprimes europei in un vuoto regolatorio simile a quello che ha permesso il leak di Mythos, adottando invece politiche rigorose di audit e trasparenza.
A livello nazionale, la situazione appare ancor più complessa. In assenza di istituzioni strutturate per il lobbying trasparente, l’Italia rischia di limitarsi a recepire standard tecnici elaborati altrove, accettando nei fatti una “sovranità di riflesso”. Roma ha invece l’opportunità di contribuire a un’evoluzione dell’ordine internazionale che includa esplicitamente le “istituzioni industriali” come oggetti di regolazione specifica. Nella pratica, ciò significherebbe trasformare il tradizionale lobbying opaco in una partecipazione istituzionalizzata, dove l’impresa tecnologica sia vincolata da obblighi di due diligence e responsabilità internazionale analoghi, seppur distinti, a quelli statali.
L’ascesa dell’intelligenza artificiale configura il definitivo tramonto del confine tra sfera pubblica e privata nel dominio della forza. Il privato tecnologico è ormai una conditio sine qua non del gendarme pubblico, assumendo de facto un ruolo istituzionale in una simbiosi che l’architettura internazionale non può più ignorare. La finestra di opportunità per agire è ora: mentre la military AI è ancora in una fase embrionale, le scelte odierne su come inquadrare le future istituzioni industriali della forza delineeranno il campo di gioco della stabilità internazionale per i decenni a venire.

