L’impatto dell’intelligenza artificiale nel processo decisionale sul nucleare

NAZIONI UNITE, 6 marzo 2026 (IPS) – Mentre l’intelligenza artificiale (IA) minaccia di dominare ogni aspetto della vita umana, inclusi quello politico, economico, sociale e culturale, esiste anche il pericolo di una potenziale militarizzazione dell’IA. L’integrazione dell’IA nei sistemi di comando, controllo e comunicazione nucleare (NC3), così come il suo utilizzo nel processo decisionale militare, introduce gravi rischi senza precedenti per la sicurezza globale.

I principali effetti negativi includono l’accelerazione del processo decisionale alla “velocità delle macchine” (lasciando poco tempo al giudizio umano), una maggiore vulnerabilità agli attacchi informatici e l’erosione della stabilità strategica. Secondo il Bulletin of the Atomic Scientists, il comando e il controllo delle armi nucleari è un sistema delicato e complesso, progettato per prevenire errori e garantire al contempo l’affidabilità in condizioni di grande pressione.   

Quando la posta in gioco è molto alta e la quantità dei dati relativi è enorme, prendere in considerazione l’uso dell’intelligenza artificiale è ormai considerato normale.    

“L’integrazione di una tecnologia in rapida evoluzione solleva interrogativi fondamentali su responsabilità, qualità dei dati e affidabilità del sistema. Quando un singolo errore potrebbe avere conseguenze irreversibili, come si può costruire la fiducia attorno all’integrazione dell’apprendimento automatico in sistemi che si sono sempre basati sul giudizio e sulla supervisione umana? Quali limiti di sicurezza dovrebbero essere mantenuti? Dove sono le opportunità di avere collaborazione e consenso internazionale?” Tariq Rauf, ex responsabile delle politiche di verifica e sicurezza presso l’Agenzia Internazionale per l’Energia Atomica (AIEA) con sede a Vienna, ha dichiarato all’IPS che il ruolo e l’integrazione dell’Intelligenza Generativa Artificiale (AGI) sollevano alcune delle questioni più importanti della nostra era tecnologica. L’integrazione dell’AGI nei sistemi di comando, controllo e comunicazione (NC3) nucleari non è solo una sfida ingegneristica, ma una sfida di civiltà.

Il problema della velocità delle macchine.     

Forse l’aspetto più allarmante dell’integrazione dell’AGI nei sistemi NC3, ha sottolineato, è la compressione dei tempi decisionali alla “velocità delle macchine”. La strategia nucleare si è sempre basata sul giudizio umano: la capacità di fermarsi, valutare dati ambigui, consultare esperti e scegliere la moderazione anche sotto pressione o attacco. I sistemi AGI, al contrario, sono progettati per elaborare e rispondere a velocità che nessun essere umano può raggiungere. In una crisi, questo crea un pericoloso paradosso: la stessa velocità che rende l’AGI attraente rende anche praticamente impossibile una supervisione umana.

“Se un sistema AGI identifica erroneamente un’anomalia di un sensore con un missile in arrivo – cosa che è già accaduta con sistemi gestiti dall’uomo, come dimostra l’incidente del falso allarme sovietico del 1983 – la finestra di tempo per la correzione potrebbe ridursi da minuti a secondi”.

Il margine di errore nel processo decisionale nucleare è sempre stato pericolosamente piccolo; l’AGI rischia di eliminarlo completamente, ha affermato Rauf.

Qualità dei dati e affidabilità del sistema        

La qualità e l’integrità dei dati sono informazioni fondamentali per l’AGI. I sistemi di apprendimento automatico sono affidabili solo se lo sono i dati su cui vengono tarati, ha sostenuto.   

“Gli ambienti nucleari presentano sfide uniche e eccezionalmente complesse: coinvolgono eventi rari e ad alto rischio con dati storici limitati, attori avversari che possono  inserire informazioni errate nelle reti di sensori, e variazioni di contesti geopolitici più veloci di  quelle immesse nei dati di addestramento”

Un sistema di intelligenza artificiale (AGI) che si affida, in un contesto nucleare, a dati corrotti o mal compresi, potrebbe innescare un’escalation basata su falsità. Peggio ancora, la definizione non chiara di molti modelli di apprendimento automatico – il cosiddetto problema della “scatola nera” – fa sì che persino i progettisti dei sistemi potrebbero non essere in grado di spiegare perché un  risultato inatteso sia stato prodotto, per non parlare della capacità di correggerlo in tempo, ha dichiarato Rauf.

Vladislav Chernavskikh, ricercatore del Programma sulle Armi di Distruzione di Massa presso lo Stockholm International Peace Research Institute (SIPRI), ha dichiarato all’IPS che gli attuali approcci degli statii al nesso tra intelligenza artificiale e nucleare convergono già ampiamente sul principio di mantenere il controllo umano nel processo decisionale nucleare, ma non esiste ancora un consenso su come questo debba essere definito o reso operativo.

Un riconoscimento formale di questo principio da parte degli stati dotati di armi nucleari e l’elaborazione di ciò che costituisce il controllo umano in questo contesto e di come può manifestarsi nel campo delle armi nucleari possono essere uno dei primi passi verso la minimizzazione dei rischi, ha dichiarato.

Al vertice sull’impatto dell’intelligenza artificiale tenutosi il mese scorso a Nuova Delhi, il Segretario generale delle Nazioni Unite Antonio Guterres ha affermato che il futuro dell’intelligenza artificiale non può essere deciso da una manciata di paesi e dai capricci di pochi miliardari.

L’anno scorso, l’Assemblea generale ha adottato due misure decisive, ha affermato.

In primo luogo, creando un gruppo scientifico internazionale indipendente sull’intelligenza artificiale e, in secondo luogo, avviando un Dialogo Globale sulla governance dell’intelligenza artificiale all’interno delle Nazioni Unite, in cui tutti i paesi, insieme al settore privato, al mondo accademico e alla società civile, possano esprimere la propria opinione.

Ha detto ai partecipanti al summit che il termine  “impatto reale” indica una tecnologia che migliori la vita e protegga il pianeta. E li ha invitati a sviluppare un’intelligenza artificiale per tutti, con la dignità come impostazione predefinita.

Il portavoce delle Nazioni Unite, Stephane Dujarric, ha dichiarato ai giornalisti il ​​mese scorso che il Segretario Generale non chiede che le Nazioni Unite controllino l’intelligenza artificiale. Chiede – e ha già messo in atto – una struttura operativa con il supporto degli stati membri per garantire che tutti abbiano un posto al tavolo delle trattative.

E come ha affermato: “L’intelligenza artificiale avrà e ha già avuto un impatto su tutti noi. È fondamentale che anche i Paesi che non dispongono della tecnologia necessaria abbiano voce in capitolo e che la scienza e l’equità siano poste al centro dell’intelligenza artificiale”.

Responsabilità e rendicontazione                 

In un’ulteriore analisi, Rauf ha affermato che quando le indicazioni operative o le azioni autonome dell’AGI portano a risultati catastrofici, la questione della responsabilità diventa fortemente problematica.

Le tradizionali catene di comando attribuiscono una chiara responsabilità umana a ogni punto decisionale. L’integrazione dell’AGI lede questa chiarezza. È lo sviluppatore del software, il comando militare,  il governo che ha implementato il sistema oppure l’algoritmo stesso ad avere la responsabilità di un errore di calcolo? si è chiesto.

L’assenza di chiari quadri di responsabilità non è solo un problema legale o etico, ma anche strategico, perché sia avversari che alleati devono poter capire chi ha il controllo e quale logica decisionale viene applicata.

Vulnerabilità agli attacchi informatici   

Oltretutto, i sistemi NC3, potenziati o dipendenti dall’AGI ampliano inoltre l’area attaccabile per gli avversari. Attacchi informatici sofisticati, inclusi input avversari progettati per manipolare gli output dell’AGI, potrebbero potenzialmente falsificare o accecare questi sistemi in modi difficili da percepire se non tardivamentei. L’integrazione dell’AGI crea quindi vettori di destabilizzazione che non esistevano nelle precedenti architetture nucleari, ha affermato Rauf.

Il tema della collaborazione internazionale     

Nonostante queste sfide allarmanti, la collaborazione internazionale potrebbe rappresentare una potenziale via per la gestione del rischio. Misure volte a rafforzare la fiducia reciproca, standard tecnici condivisi e accordi bilaterali o multilaterali di carattere esecutivo sui limiti dell’autonomia delle AGI nei sistemi nucleari potrebbero contribuire a mantenere la stabilità strategica.

La storia del controllo degli armamenti, ha affermato Rauf, dimostra che anche gli avversari possono concordare regole che regolano gli interessi comuni per la sopravvivenza. È urgente estendere questa prassi ai sistemi NC3 basati sull’intelligenza artificiale, prima che la tecnologia superi del tutto la diplomazia.

“L’integrazione dell’AGI nei sistemi nucleari potrebbe essere tecnicamente inevitabile. La volontà di gestirla saggiamente è una scelta politica  che rimane ancora molto aperta e sembra andare oltre le capacità di elaborazione intellettuali, morali ed etiche degli attuali leader civili e militari”, ha dichiarato Rauf.

Nota: Questo articolo è stato realizzato da IPS Noram in collaborazione con INPS Japan e Soka Gakkai International in stato consultivo con l’ECOSOC.