Dopo le tensioni iniziate nel mese di gennaio il rapporto tra l’amministrazione Trump e Anthropic è arrivato ai minimi termini: il Pentagono ha dichiarato l’azienda “rischio per la catena di approvvigionamento alla sicurezza nazionale”, impedendole qualsiasi forma di contratto con lo stato. Il motivo di questo scontro obbliga ad una riflessione sui limiti etici dell’uso dell’intelligenza artificiale nel contesto di guerra.
Nel luglio del 2025 Anthropic, una delle aziende principali nel settore dell’intelligenza artificiale, ha concluso un contratto da 200 milioni di dollari con il governo statunitense per l’uso del suo modello d’IA Claude. Il contratto in questione prevedeva, come pretesa da parte di Anthropic, l’inclusione di clausole ben precise e in particolare il divieto di utilizzare il modello per la sorveglianza di massa dei cittadini statunitensi e per l’impiego nei sistemi di arma letali completamente automatizzati.
Tuttavia, l’attacco a oltre mille obiettivi nelle prime 24 ore del conflitto contro l’Iran, iniziato il 28 febbraio dall’amministrazione Trump, sembra suggerire un uso sistematico dell’intelligenza artificiale per l’individuazione dei bersagli militari.
Il caso Anthropic-Pentagono
Le tensioni tra l’azienda e lo Stato sono iniziate in seguito all’impiego dell’IA Claude nell’operazione del 3 gennaio in Venezuela. Secondo quanto riportato dal Wall Street Journal, l’LLM di Anthropic sarebbe stato disponibile per i militari statunitensi tramite Palantir, azienda specializzata in applicazioni di IA per la sicurezza nazionale. Questo ha portato a un rapido deterioramento dei rapporti tra il co-fondatore dell’azienda, Dario Amodei, e il Dipartimento della difesa americano: il punto di rottura è stato raggiunto proprio con l’utilizzo dell’IA nell’offensiva all’Iran.
Lo stato americano ha dichiarato che l’azienda costituisce un “rischio per la catena di approvvigionamento”, affermazione non certo priva di conseguenze . Tale posizione, infatti, non comprometterebbe solo il rapporto con l’amministrazione americana ma obbligherebbe anche tutte le imprese che collaborano con il Pentagono ad interrompere qualsiasi contratto con Anthropic. Tra i propri finanziatori la società ha al momento aziende importanti come Google e Amazon. In risposta, l’azienda guidata da Amodei ha deciso di fare causa al Dipartimento della difesa statunitense, accusandolo di voler punire la società per la propria posizione, che assume anche un chiaro connotato politico.
Contestualmente a questa vicenda, OpenAI ha annunciato un nuovo accordo con il Pentagono che presenta una serie di garanzie, secondo l’impresa più ampie di qualsiasi accordo precedente. Tuttavia, i suoi utenti non sembrano pensarla allo stesso modo: dall’annuncio dell’accordo il tasso medio giornaliero di disinstallazione di Chat GPT, la chatbot di OpenAI, è aumentato del 200%, mentre nelle ultime settimane Claude di Anthropic è tra le app più installate di App Store.
L’uso dell’intelligenza artificiale nel targeting militare
A gennaio Pete Hegseth, Segretario della Difesa USA ha dichiarato “We will become an ‘AI-first’ warfighting force across all domains“. Intelligence, pianificazione militare e logistica sono i settori dell’esercito dove l’intelligenza artificiale viene oggi quotidianamente usata. In particolare, l’IA è in grado di elaborare grandi quantità di dati per identificare potenziali obiettivi e stabilire le priorità.
È dal 2017 che gli USA hanno iniziato ad integrare sistemi di intelligenza artificiale nel loro esercito con il Progetto Maven, che utilizza forme più datate di intelligenza artificiale per analizzare dati e identificare bersagli tramite algoritmi. Adesso questo sistema è integrato con modelli di IA generativa sostanzialmente differenti, che aggiungono chatbot di conversazione basate su LLM, grazie alle quali i dati sono più facili da consultare, ma più difficili da verificare. Il grande vantaggio che si ottiene con questi sistemi è la velocità: i bersagli sono molto più facili da individuare che con il solo supporto umano.
Ma gli Stati Uniti non sono l’unica potenza ad integrare nei propri sistemi l’intelligenza artificiale: l’esercito israeliano fin dal 7 ottobre 2023 ha integrato a Gaza sistemi di targeting militare che si basano sull’IA. Secondo un report del novembre 2023 di +972 Magazine e Local call Israele impiegava tra i suoi strumenti “Gospel”, un sistema caratterizzato per il supporto dell’IA, usato, tra gli altri scopi, per identificare residenze private di persone sospettate di essere membri di Hamas o della Jihad Islamica.
Un altro sistema israeliano di identificazione degli obiettivi è “Lavender”, basato sempre sull’intelligenza artificiale. Sempre secondo un report di +972 Magazine questo sistema avrebbe avuto un ruolo centrale nei bombardamenti: le forze armate ne avrebbero infatti fatto un uso senza precedenti, arrivando a trattare i risultati dell’IA come “una decisione umana”.
Questo impiego solleva diverse questioni etiche. L’impiego di sistemi decisionali basati sull’intelligenza artificiale privi di un adeguato controllo umano non solo aumenta il rischio di errori fatali per i civili, ma solleva un dilemma giuridico-umanitario senza precedenti. Se l’IA fallisce nel processo di targeting, ci si scontra con un vuoto di responsabilità: l’impossibilità di imputare l’atto a un singolo operatore rischia di generare una deresponsabilizzazione sistematica dell’apparato militare, mettendo in crisi i pilastri del diritto internazionale bellico.
La questione etica: quando l’IA decide sulla vita e sulla morte
I sostenitori dell’utilizzo dell’intelligenza artificiale nel targeting militare affermano che attraverso questi sistemi si raggiunge una maggiore precisione, oltre che maggiore velocità nelle operazioni. Tuttavia, un report della Croce Rossa ha evidenziato come ci siano molte altre questioni da considerare.
Innanzitutto, questi sistemi basano le loro decisioni sull’analisi di dati che, qualora insufficienti o inadeguati, possono portare facilmente a distorsioni, allucinazioni e disallineamenti, che pongono una serie di problemi nell’identificazione, selezione e ingaggio dei bersagli.
Per esempio, la mancanza di diversità nei set di dati può indurre i sistemi di IA a individuare membri di determinati gruppi etnici come obiettivi, o addirittura a considerare tutti i civili di sesso maschile come combattenti. Inoltre, l’IA si adatta difficilmente a situazioni mai viste prima con la conseguenza che comportamenti imprevisti possono indurre il sistema in errore: se un’ambulanza viene usata in modo illegale dai combattenti nemici il sistema potrebbe da quel momento in poi considerare tutte le ambulanze come obiettivi legittimi.
A questo si aggiungono i “disallineamenti”: questi sistemi nel dare priorità a un comando rispetto agli altri possono non ponderare adeguatamente una decisione con i valori e i vincoli che al contrario avrebbe un essere umano. Per esempio, l’obiettivo di distruggere quante più basi militari possibili può essere anteposto alla protezione dei civili, arrivando a considerare legittimo un target militare che potenzialmente comporta danni sproporzionati o maggiori alla popolazione locale. Vanno considerate anche le “allucinazioni” dei sistemi tecnologici, per cui dati privi di senso o inaccurati, o cambiamenti improvvisi del campo di battaglia, possono indurre questi sistemi ancora imprevedibili in errore.
In generale quello che manca è l’ancora insostituibile logica umana. Basandosi solo su una serie di dati, vengono meno le considerazioni che servono a ponderare adeguatamente un obiettivo, alla luce delle circostanze prevalenti nel momento e del diritto internazionale umanitario.
Si può argomentare che questi sistemi di targeting militare non sono ancora lasciati a sé stessi, la decisione finale spetta sempre agli esseri umani. Tuttavia, è molto probabile che le raccomandazioni dei sistemi di supporto basati sull’intelligenza artificiale influenzino fortemente il processo decisionale. Il personale militare, in un contesto in cui il tempo è un fattore critico e si tende sempre a previlegiare l’azione all’inazione, può essere spinto a non verificare accuratamente i risultati forniti dal sistema, un fenomeno noto come «pregiudizio dell’automazione». La velocità garantita dai sistemi integrati dall’IA aumenta il rischio di pregiudizio dell’automazione da parte degli operatori umani, riducendo il controllo umano a premere un pulsante davanti alla “produzione in massa di obiettivi”. Questo apre alla “deresponsabilizzazione”: le vittime civili sono “collaterali” perché i militari avevano in buona fede creduto che il sistema fosse affidabile.
Nonostante queste perplessità, un numero crescente di apparati della difesa sta concentrando le proprie risorse nell’integrare l’intelligenza artificiale nelle strategie militari. Parallelamente, le grandi aziende del settore – tra cui Anthropic, OpenAI e Meta – hanno iniziato a rendere disponibili i propri modelli per scopi bellici. Tale scenario solleva gravi interrogativi sulla privacy e l’etica, poiché questi sistemi sono stati addestrati su vasti dataset contenenti informazioni personali degli utenti.
Molti Stati prevedono delle normative sulla privacy, come l’EU AI Act nell’Unione Europea, ma non sono pensate specificatamente per operare nei conflitti armati. Manca un quadro di diritto internazionale che affronti puntualmente questione. Le ultime norme del diritto internazionale umanitario prodotte dalla comunità internazionale sono le Convenzioni di Ginevra del 1949 e i suoi protocolli addizionali. Nel Primo Protocollo Addizionale, l’art.36 che impone agli Stati parte di accertare, nell’introdurre nuove armi, che il loro impiego non violi il diritto internazionale; tuttavia, l’applicazione di questo articolo a guerra cibernetica, intelligenza artificiale e robotica presenta ancora molte difficoltà per la revisione legale (come la necessità di comprendere a fondo la tecnologia e di trovare nuove metodologie per la valutazione del rischio), e può avvenire solo con il consenso della comunità internazionale. Dunque, il diritto internazionale possiede maglie abbastanza ampie da poter includere i nuovi sviluppi della guerra ma al momento non vi sono disposizioni ad hoc che tutelino la protezione dei civili nell’ambito dell’uso dell’IA in guerra che siano coercitive per gli stati.
Data l’assenza di una normativa generale sono le aziende che stabiliscono le proprie politiche sulla privacy, che però possono modificare a proprio piacimento. OpenAI, Meta e Google, ad esempio, hanno tutte revocato le precedenti restrizioni relative alle applicazioni militari dell’IA.
Nella situazione reale e imprevedibile del campo di battaglia i sistemi di IA non sono ancora in grado di sostituire l’essere umano: non rendersene conto può comportare molti costi in termini di vite umane. Anthropic ha fatto fronte a questo dilemma etico modificando il proprio approccio commerciale ed è stata di fatto classificata come nemica degli interessi dello Stato per essersi opposta al desiderio dell’amministrazione Trump di poter utilizzare i suoi sistemi di IA generativa in potenziali sistemi d’arma autonomi e per sorvegliare i cittadini americani. Tuttavia, è fondamentale sottolineare che questo impego dell’IA è tecnicamente legale. La scelta di Anthropic va ricercata unicamente in motivazioni etiche alle quali Dario Amodei ha dato prevalenza: l’obiettivo della sua azienda è dedicarsi a un’implementazione responsabile dell’intelligenza artificiale. La scelta di Amodei può aver certamente rallentato o creato dibattito attorno alle scelte dell’amministrazione statunitense ma non le ha certo fermate: il DOD al momento ha accordi con altre aziende e superato il periodo di sei mesi necessari per sostituire Anthropic continuerà nella strada che ha deciso di intraprendere in Iran. E’ necessaria allora la riflessione attorno a un framework normativo condiviso a livello internazionale: in caso contrario l’incremento dell’autonomia nei sistemi algoritmici predittivi potrebbe determinare, nel prossimo futuro, una delega critica delle funzioni letali a processi computazionali dominati dall’IA, con un impatto significativo sulla sicurezza e la protezione delle popolazioni civili.

