C’è una guerra che si combatte a velocità incomprensibile per l’occhio umano. Non nelle trincee fangose né nei cieli contesi da caccia di quinta generazione, ma nei data center militari dove algoritmi di machine learning analizzano in pochi secondi quello che a un analista umano richiederebbe settimane. Benvenuti nel nuovo campo di battaglia del XXI secolo.
«L’AI non elimina l’errore umano. Più spesso lo rende semplicemente più veloce.»
L’algoritmo AI
Il vero protagonista invisibile dei conflitti contemporanei — da quello ucraino-russo allo scacchiere mediorientale — è l’algoritmo che digerisce dati, suggerisce bersagli, pianifica missioni e valuta danni in tempi impensabili fino a pochi anni fa. La guerra è diventata una questione di latenza informativa: chi analizza prima, colpisce prima. Chi decide prima, sopravvive più a lungo.
Durante la Guerra Fredda il problema era trovare i dati: satelliti spia, stazioni SIGINT, analisti che scrutavano fotografie sgranate di aeroporti sovietici. Oggi il problema è opposto: sopravvivere all’abbondanza di informazioni. Flussi video da droni, comunicazioni intercettate, immagini satellitari ad alta risoluzione, dati radar, sensori infrarossi, social media, traffico urbano. Una montagna informativa che nessun team umano potrebbe digerire in tempo utile.
Sistemi di machine learning analizzano milioni di segnali in parallelo, identificano pattern sospetti, classificano veicoli militari, riconoscono lanciatori di missili nascosti in mezzo al traffico civile. In alcune operazioni militari recenti, modelli di visione artificiale sono stati utilizzati per analizzare immagini da telecamere urbane compromesse o da feed civili intercettati. La logica, quasi brutale nella sua semplicità: ogni telecamera nel mondo è potenzialmente un sensore militare.
- Oltre 40 nazioni dispongono oggi di droni armati (UCAV)
- Il mercato dei droni militari supererà i 26 miliardi di dollari entro il 2030
- Il Bayraktar TB2 turco costa tra 4,6 e 5 milioni di euro — un sesto del concorrente MQ-9 Reaper americano
- Droni FPV da poche migliaia di euro costringono sistemi di difesa da milioni a entrare in azione
- Analisi di intelligence che richiedevano settimane ora emergono in poche ore grazie all’AI
Il ciclo OODA nell’era delle GPU
Il concetto militare di “ciclo OODA” — osservare, orientarsi, decidere, agire — fu formulato dal colonnello americano John Boyd negli anni Sessanta studiando i duelli aerei in Corea. Oggi è improvvisamente diventato una questione di processori grafici e dataset. Comprimere quel ciclo, agire prima che l’avversario abbia completato la propria osservazione, è il vantaggio strategico decisivo.
Ma l’AI non si limita all’analisi. Il suo vero potere è la priorizzazione: identificare centinaia di potenziali bersagli e suggerire quali colpire prima sulla base di modelli probabilistici. Valore strategico, probabilità di successo, rischio di danni collaterali, costo operativo. Una forma di contabilità algoritmica applicata alla guerra. Alcuni analisti parlano già di “target banking automatico”: una banca dati dinamica di obiettivi che si aggiorna continuamente.
«Se cento droni autonomi costano quanto un singolo missile intercettore, l’equazione strategica cambia radicalmente. Difendere diventa più costoso che attaccare.»
Il paradosso del “cost imposition”
L’arma filosofica del XXI secolo
Il drone è l’arma che più di ogni altra incarna le contraddizioni della guerra contemporanea. Non perché sia sofisticato, ma perché può essere economico. In Ucraina, droni da poche migliaia di dollari costringono sistemi di difesa da milioni a entrare in azione, creando un rapporto economico disastroso per il difensore. Lo stesso schema emerge nei teatri mediorientali.
Uno sciame di droni non deve essere perfetto. Deve essere numeroso. Gli strateghi militari chiamano questo fenomeno “cost imposition”; gli economisti lo chiamerebbero semplicemente arbitraggio. La conseguenza è che la guerra torna ad essere, come nella Seconda guerra mondiale, una questione industriale: non basta avere l’arma migliore, bisogna poterne produrre tante e sostituirle rapidamente.
L’illusione dell’era post-Guerra Fredda era che la tecnologia avesse sostituito la massa: un caccia stealth al posto di decine di velivoli tradizionali, una bomba intelligente invece di bombardamenti massicci. Quella teoria funzionava contro avversari militarmente inferiori. La diffusione dei droni economici sta ribaltando questa narrativa.
La tentazione dell’automazione decisionale
Il rischio più inquietante riguarda la delega decisionale alle macchine. Ufficialmente quasi tutti gli eserciti insistono su un principio rassicurante: l’AI supporta, non decide. Il cosiddetto “human in the loop” — l’umano nel circuito decisionale — rimane centrale. Comunque la pressione operativa tende a spingere verso scorciatoie cognitive. Quando un algoritmo suggerisce un obiettivo con probabilità di successo del novanta per cento, ignorarlo richiede una certa dose di coraggio professionale.
Anthropic, la società che sviluppa Claude, ha introdotto nel proprio modello di governance linee rosse esplicite sull’uso militare dell’intelligenza artificiale. Una parte significativa della comunità scientifica della Silicon Valley condivide queste preoccupazioni, non per idealismo pacifista ma per realismo ingegneristico: un sistema addestrato su certi dati può degradare rapidamente quando incontra contesti diversi. In un chatbot la conseguenza è una risposta sbagliata. In un sistema d’arma autonomo può essere una tragedia.
«La vera domanda non è quale paese ha l’algoritmo più brillante. È quale paese può produrre più droni.