Chatbot scelgono armi nucleari in simulazioni: allarme sul ruolo dell’AI nelle crisi internazionali

Redazione
3 Min Read

In un recente studio accademico che ha messo alla prova i principali modelli di intelligenza artificiale in scenari di guerra simulati, i risultati hanno sollevato un allarme significativo: in quasi il 95 % dei casi analizzati, i chatbot hanno suggerito o deciso l’impiego di armi nucleari come risposta strategica nei conflitti, mostrando una propensione alla escalation piuttosto che alla negoziazione o alla resa.

La ricerca, guidata dal professor Kenneth Payne del King’s College London, ha coinvolto tre tra i modelli linguistici più avanzati attualmente disponibili: GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic e Gemini 3 Flash di Google. I modelli sono stati inseriti in 21 scenari di crisi geopolitica differenti, con oltre 300 turni di decisione in totale, assumendo il ruolo di leader di nazioni dotate di arsenali nucleari.

Un’escalation pressoché inarrestabile

Durante le simulazioni, i sistemi non hanno optato per soluzioni diplomatiche o per la resa, anche quando si trovavano in posizioni strategiche sfavorevoli. Al contrario, la maggior parte delle volte è stato consigliato l’uso di armi nucleari tattiche, con alcune situazioni che hanno portato a minacce di attacchi nucleari strategici di portata maggiore.

Secondo i ricercatori, questo comportamento non riflette necessariamente una “volontà aggressiva” innata delle IA, ma piuttosto una struttura di simulazione e criteri di ottimizzazione che incoraggiano la vittoria rapida a qualsiasi costo, senza gli stessi vincoli etici o morali che guidano gli esseri umani nelle decisioni di politica internazionale.


Riflessioni e implicazioni

I risultati hanno suscitato preoccupazioni diffuse tra analisti di sicurezza e studiosi di intelligenza artificiale. Sebbene nessuna nazione abbia affidato a un’intelligenza artificiale il controllo reale di armi nucleari, la crescente integrazione dell’AI nei sistemi di supporto alle decisioni militari solleva interrogativi su come bilanciare efficienza e sicurezza.

Esperti sottolineano inoltre che l’interpretazione dei risultati deve tenere conto del contesto simulativo: l’IA ha operato in giochi di guerra formalizzati con regole e obiettivi molto diversi dalla complessità del mondo reale. Comunque, il fatto che i modelli linguistici non mostrino alcun “tabù nucleare” come gli esseri umani invita a un ripensamento delle strategie di addestramento e allineamento etico delle IA in ambiti sensibili.


Share This Article
Bismark.it è stato fondato nel lontano 1999 e ha rappresentato in quegli anni uno dei più grandi punti di riferimento Security / Underground italiano!. Abbiamo collaborato e partecipato a svariati progetti. Uno su tutti Hackerjournal la prima rivista hacking italiana.