I deepfake potrebbero mettere in crisi i fondamenti psicologici della deterrenza nucleare, basati su comunicazioni credibili e fiducia minima tra le parti. Nell’era della “post-verità” digitale, in cui ogni immagine o messaggio può essere artefatto, diventa arduo distinguere le reali intenzioni nemiche dalle manipolazioni. Analisti del “Bulletin” notano che la marea di false informazioni (video contraffatti, notizie inventate) corrode la credibilità dei segnali genuini di deterrenza, alimentando paranoie e incomprensioni. Ad esempio, se un Paese lanciasse un allarme autentico o inviasse un messaggio urgente tramite canali pubblici, il suo avversario potrebbe liquidarlo come un deepfake nemico e non reagire adeguatamente – oppure, all’opposto, un leader potrebbe abboccare a una provocazione fake scambiandola per un ultimatum vero. In entrambi i casi, l’equilibrio del “mutuo terrore” su cui si basa la pace armata verrebbe compromesso. Studi dell’European Leadership Network classificano i deepfake come “armi di distorsione di massa” proprio perché riducono la chiarezza informativa e possono degradare i sistemi di comando e controllo nucleare (NC3). Se i decisori non si fidano più dei dati e delle comunicazioni – o perché temono siano falsi, o perché sono essi stessi bersaglio di campagne ingannevoli – aumenta il rischio di errori di valutazione. Mishra evidenzia che l’introduzione dei deepfake rende sempre più difficile per i leader distinguere l’informazione corretta da quella fuorviante, lasciandoli svantaggiati e incerti durante le crisi. Il fenomeno dei deepfake erode quindi la fiducia strategica residua tra le potenze nucleari e abbassa la soglia oltre la quale possono scatenarsi reazioni ostili, anche in assenza di reali aggressioni.
Madeleine Maresca, 21 gennaio 2026