L’intelligenza artificiale entra sempre più nelle operazioni militari. Secondo il The Guardian, modelli come Claude sarebbero stati utilizzati dagli Stati Uniti nella pianificazione degli attacchi contro l’Iran. Gli algoritmi accelerano la “kill chain” – dalla selezione del bersaglio all’ordine di attacco – ma sollevano dubbi sul ruolo umano nelle decisioni di guerra.
L’intelligenza artificiale accelera la guerra
L’intelligenza artificiale sta entrando nel cuore delle operazioni militari, trasformando radicalmente tempi e modalità dei conflitti.
Gli ultimi attacchi contro l’Iran rappresentano, secondo diversi analisti, l’inizio di una nuova fase: bombardamenti pianificati e autorizzati a una velocità che sfiora “la velocità del pensiero”, con il rischio concreto di comprimere il ruolo umano nelle decisioni militari.
Secondo quanto riportato dal The Guardian, il modello di IA Claude sviluppato da Anthropic sarebbe stato utilizzato dall’esercito statunitense durante la recente ondata di attacchi.
L’obiettivo è accorciare la cosiddetta “kill chain”, la sequenza operativa che parte dall’identificazione del bersaglio e arriva fino all’autorizzazione del fuoco.
Dalla sperimentazione a Gaza agli attacchi contro l’Iran
Gli Stati Uniti e Israele avevano già sperimentato l’utilizzo dell’intelligenza artificiale per individuare obiettivi militari nella guerra a Gaza Strip.
Con l’operazione contro l’Iran il sistema sarebbe però entrato in una nuova dimensione operativa: quasi 900 attacchi nelle prime 12 ore dell’offensiva.
Secondo alcune ricostruzioni, durante quella fase iniziale i missili israeliani avrebbero colpito i vertici del regime iraniano, tra cui la Guida Suprema Ali Khamenei.
La “compressione decisionale” della guerra algoritmica
Gli esperti definiscono questo processo “compressione decisionale”.
I sistemi di intelligenza artificiale analizzano in pochi secondi enormi quantità di dati provenienti da:
-
immagini satellitari e da droni
-
intercettazioni elettroniche
-
informazioni di intelligence umana
La piattaforma sviluppata da Palantir Technologies in collaborazione con il Pentagono integra modelli di apprendimento automatico capaci di:
-
classificare e prioritizzare i bersagli
-
suggerire i sistemi d’arma più efficaci
-
valutare automaticamente alcuni presupposti legali di un attacco.
Secondo Craig Jones, docente all’Newcastle University, l’effetto principale è la velocità operativa.
“La macchina dell’intelligenza artificiale fornisce raccomandazioni su cosa colpire, spesso più rapidamente della velocità del pensiero”, ha spiegato al Guardian. “Operazioni che in passato avrebbero richiesto giorni o settimane ora possono essere condotte quasi simultaneamente”.
Il rischio dello “scarico cognitivo”
La trasformazione non riguarda solo la tecnologia ma anche la psicologia delle decisioni.
Secondo David Leslie, professore alla Queen Mary University of London, esiste il rischio di uno “scarico cognitivo”.
Quando l’algoritmo elabora dati, formula opzioni e suggerisce decisioni, chi deve autorizzare l’attacco potrebbe sentirsi meno coinvolto nel peso morale della scelta.
“Questa è la prossima era della strategia e della tecnologia militare”, ha spiegato Leslie. Tuttavia la velocità decisionale imposta dagli algoritmi lascia ai decisori umani sempre meno tempo per valutare le conseguenze delle raccomandazioni generate dalle macchine.
Il divario tecnologico tra Iran e potenze militari
Un’altra incognita riguarda le capacità tecnologiche degli avversari.
Teheran ha dichiarato nel 2025 di utilizzare sistemi di intelligenza artificiale per il puntamento dei missili, ma il programma iraniano appare ancora distante da quello delle principali potenze tecnologiche come Stati Uniti e Cina, anche a causa delle sanzioni internazionali.
IA, politica e Pentagono
Negli Stati Uniti il tema si intreccia anche con le scelte politiche.
Nei giorni precedenti agli attacchi, l’amministrazione americana aveva annunciato l’intenzione di escludere Anthropic dai propri sistemi dopo il rifiuto dell’azienda di consentire l’uso dei suoi modelli per armi completamente autonome o per la sorveglianza dei cittadini americani.
Nel frattempo il concorrente OpenAI ha firmato un accordo con il Pentagono per l’impiego militare dei propri modelli di intelligenza artificiale.
L’IA è già dentro i conflitti
Il punto, ormai, non è più se l’intelligenza artificiale entrerà nei conflitti armati.
Secondo molti analisti, la trasformazione è già in corso: gli algoritmi stanno diventando uno dei fattori decisivi nella velocità e nell’intensità delle guerre contemporanee.
