Secondo questa tesi, i deepfake non costituiscono solo un pericolo accidentale ma possono diventare vere armi di provocazione deliberata. Un governo ostile o un gruppo terrorista potrebbero fabbricare prove audiovisive false per giustificare un attacco preventivo o per far collidere tra loro due potenze nucleari (false flag digitale). Gli analisti definiscono i deepfake una possibile “arma di distrazione di massa”, capace di creare pretesti artificiali per la guerra e di manipolare l’opinione pubblica per alimentare il consenso al conflitto. Già nel 2016 un semplice sito complottista riuscì a innescare uno scambio di minacce nucleari tra Pakistan e Israele diffondendo una notizia inventata; con i moderni strumenti AI, un aggressore potrebbe fare molto di più – ad esempio divulgando un video in cui un leader “annuncia” un attacco atomico imminente per spingere il nemico a colpire per primo. Studi recenti avvertono che anche attori non-statali potrebbero deliberatamente creare escalation: basterebbe un deepfake di un Capo di Stato che suggerisce di aver già impiegato armi nucleari per seminare caos e spingere gli avversari al brinkmanship (gioco al rilancio nucleare). Perfino se tali falsi venissero scoperti poco dopo, avrebbero comunque instillato panico e incertezza generalizzata nel momento cruciale della crisi. In sintesi, i sostenitori di questa tesi vedono nei deepfake un rischio concreto di casus belli virtuali: sofisticate macchinazioni in grado di far scoppiare guerre reali sulla base di bugie, sfruttando la naturale difficoltà di verifica immediata delle informazioni nelle situazioni di crisi.
Madeleine Maresca, 21 gennaio 2026