In molti sostengono che un deepfake realistico potrebbe ingannare i sistemi d’allarme e i leader, scatenando un lancio nucleare per errore. Nei moderni protocolli “launch-on-warning” delle superpotenze, i comandanti hanno pochi minuti per reagire a un allarme missilistico: un video contraffatto, ad esempio in cui il presidente avversario annuncia un attacco atomico, potrebbe indurre una risposta immediata prima che la falsità venga scoperta. L’ex presidente USA Donald Trump ha descritto proprio uno scenario simile, chiedendo a Elon Musk se un Capo di Stato avrebbe modo di verificare in tempo reale l’autenticità di un video simile; la risposta sarebbe stata che “non c’è alcun modo”. Un caso storico emblematico evidenzia la gravità del problema: nel 1983 l’ufficiale sovietico Stanislav Petrov ignorò un allarme automatico (che segnalava erroneamente missili in arrivo) evitando una catastrofe. Se Petrov avesse seguito il computer – come potrebbe accadere a futuri “Petrov digitali” di fronte a un deepfake ben orchestrato – l’URSS avrebbe lanciato testate nucleari contro un attacco inesistente. Gli esperti notano che, quando un filmato manipolato di un presunto attacco diventa virale, i leader subiscono un’enorme pressione a “fare qualcosa” immediatamente, anche senza aver verificato i fatti. Un falso convincente, diffuso nei convulsi minuti iniziali di una crisi, rischia quindi di innescare la spirale escalation–rappresaglia tipica della deterrenza nucleare, stavolta però basata su un’illusione tecnologica creata ad arte.
Madeleine Maresca, 21 gennaio 2026