L’idea che l’AI conduca a un nuovo totalitarismo digitale trascura gli sforzi crescenti – e già in parte operativi – di governance multilaterale, trasparente e partecipata. L’AI non è in sé un vettore di controllo: lo diventa solo se lasciata a se stessa. Al contrario, può diventare lo strumento più potente per rafforzare la sovranità dei cittadini, la cooperazione tra Stati e l’etica nelle istituzioni. Già oggi, iniziative come l’OECD Framework for Anticipatory Governance (2025) e le linee guida AI for Social Good definiscono parametri etici che vanno ben oltre l’autoregolazione. Questi framework prevedono coinvolgimento di stakeholder sociali, revisione iterativa delle policy e diritto alla contestazione. Non è l’AI a mancare di etica: è la volontà politica che deve imporsi. In America Latina, documenta Brookings (2025), si stanno sperimentando modelli di regolazione distribuita e inclusiva: unità nazionali per la sicurezza dell’AI, reti interstatali di monitoraggio, sandboxes regolatori per promuovere innovazione senza centralismo. L’obiettivo è non importare modelli autoritari, ma sviluppare una governance autoctona e adattabile. Anche il potere delle big tech, pur pervasivo, non è illimitato. La regolamentazione europea (AI Act, GDPR) sta già imponendo limiti tangibili. Il futuro si giocherà sulla capacità delle democrazie di fare sistema: creare consorzi tecnologici pubblici, promuovere open-source verificabili, finanziare modelli trasparenti e alternativi. Il vero “controllo” sarà quello esercitato dai cittadini informati, dalle comunità educative, dai parlamenti digitali. L’AI potrà supportare il processo legislativo, monitorare la corruzione, anticipare crisi ambientali e promuovere soluzioni personalizzate ai bisogni sociali. Più che un sorvegliante, potrà essere un guardiano della trasparenza. Il destino dell’AI è una questione di scelta politica, di responsabilità collettiva. Se scelto con saggezza, questo futuro sarà costruito dall’uomo, non contro di lui.
Nina Celli, 13 giugno 2025