L’avvento di AI e deepfake sta comprimendo drammaticamente i tempi di reazione nelle crisi nucleari, aumentando il rischio di errori fatali. L’integrazione di algoritmi nei sistemi di allerta può sì migliorare il rilevamento di minacce, ma riduce il tempo a disposizione dei leader per valutare segnali ambigui. Gli esperti parlano di “trappola dell’accelerazione”: le decisioni strategiche rischiano di dover essere prese alla velocità delle macchine, avvicinandosi pericolosamente al “pilota automatico”. In tali condizioni, un deepfake inserito nel flusso di informazioni di early-warning (per esempio falsificando dati satellitari o comunicazioni di comando) potrebbe far deragliare il processo decisionale prima che un operatore umano se ne accorga. Esperimenti citati sul “Bulletin of Atomic Scientists” mostrano che alcuni modelli di AI, simulando scenari di crisi, tendono per bias interno a fornire consigli di escalation ai decisori. Se in futuro i governi dovessero impiegare l’AI come supporto alle decisioni, ciò potrebbe spingere verso risposte più rapide e aggressive del necessario. Soprattutto, un errore dell’AI – ad esempio un’“allucinazione” di attacco – potrebbe generare allarmi falsi così credibili da non lasciare ai responsabili politici il tempo (o gli elementi) per smentirli. Marion Messmer, direttrice del programma Sicurezza internazionale di Chatham House, avverte che un modello neurale può prendere la decisione sbagliata e che gli operatori umani potrebbero non avere tempo né informazioni per contestarla: uno scenario estremamente pericoloso se riguarda il “lanciare o meno” ordigni nucleari. L’accoppiata AI/disinformazione, dunque, promette crisi sempre più fulminee e caotiche, in cui i leader potrebbero trovarsi a decidere “al buio” – basandosi su flussi informativi potenzialmente contaminati – con margini di ripensamento ridottissimi.
Madeleine Maresca, 21 gennaio 2026