I critici dell’allarmismo deepfake fanno notare che le procedure nucleari prevedono rigorosi controlli incrociati e intervento umano a ogni livello, rendendo molto difficile che un video falso da solo basti a scatenare una guerra. Le decisioni di lancio atomico non si basano su voci di corridoio o filmati online, ma su codici di autorizzazione, sensori militari e comunicazioni sicure tra governi. Ad esempio, se circolasse un video ambiguo di minaccia nucleare, i vertici militari cercherebbero conferme nei dati radar/satellitari e tramite linee dirette con l’altro paese prima di reagire. Nel 2016 fu proprio un rapido fact-checking diplomatico a disinnescare il caso Pakistan–Israele: Tel Aviv smentì ufficialmente via Twitter la falsa dichiarazione attribuita al suo ministro e lo scontro rientrò senza conseguenze. Su scala più ampia, tutte le potenze nucleari hanno ribadito che il controllo umano resta imprescindibile: persino Stati Uniti e Cina hanno dichiarato congiuntamente nel 2024 che manterranno l’uomo nel circuito decisionale riguardo alle armi nucleari. Analisti confermano che vi è un consenso generale a non delegare all’AI funzioni critiche come l’autorizzazione al fuoco atomico. Questo implica che un deepfake, per quanto allarmante, da solo non potrebbe bypassare i protocolli: servirebbero comunque codici di lancio validi e ordini confermati tramite canali protetti. Inoltre, la comunità internazionale sta già correndo ai ripari sul fronte comunicazioni: si discute di hotline cifrate e autenticate via AI per evitare spoofing (tecnica informatica di inganno), affinché in emergenza i leader possano riconoscere con certezza l’identità dell’interlocutore. Finché rimane in vigore questa rete di cautele – con doppi controlli umani e tecnologici – è altamente improbabile che un video artefatto, per quanto ben fatto, scateni da solo una reazione nucleare.
Madeleine Maresca, 21 gennaio 2026