L’innovazione non è un’entità autonoma, capace di plasmare il mondo a prescindere dalla volontà umana. La tecnologia appare come un uragano, che travolge le istituzioni, i lavoratori, le comunità e lascia dietro di sé solo fratture e polarizzazioni. Ma questa visione è miope e storicamente infondata. La storia dell’innovazione è anche una storia di contrattazione, adattamento, governance. Le disuguaglianze non nascono dalla tecnologia in sé, ma dalla scelta di ignorare o abbandonare la politica come strumento di mediazione. In questo senso, la tecnologia può essere anche un’opportunità per ripensare radicalmente la distribuzione del potere, del reddito e delle conoscenze. Uno dei miti più resistenti è quello secondo cui l’intelligenza artificiale rappresenti un salto qualitativo tale da rendere obsoleti tutti i paradigmi regolativi precedenti. Ma a ben vedere, ogni rivoluzione tecnologica – dalla meccanizzazione agricola all’informatica – ha posto sfide simili: sostituzione di mansioni, spiazzamento di competenze, riorganizzazione dei flussi economici. Ogni volta, la risposta è stata l’innovazione istituzionale: dal welfare novecentesco al diritto del lavoro, dalla scuola pubblica all’imposta progressiva. Oggi, strumenti simili devono essere aggiornati. Invece di chiedersi se l’IA produrrà disuguaglianza, dovremmo chiederci quali istituzioni servono per prevenirla e correggerla. L’idea che la tecnologia sia “troppo veloce” per la politica è stata usata spesso per giustificare l’inazione. Ma in realtà, sono proprio le tecnologie complesse come l’IA a richiedere una governance democratica forte. Diversi esperti, come Michele Kettmaier, hanno messo in guardia dal rischio che l’automazione diventi un’occasione per centralizzare il potere in poche mani – quelle che possiedono i dati, gli algoritmi, le infrastrutture. Per questo, occorre mobilitare gli strumenti della democrazia economica: trasparenza nei modelli, accesso equo alle risorse digitali, redistribuzione della ricchezza generata dall’automazione. La sfida non è impedire che l’IA venga usata, è impedire che venga usata senza responsabilità. Un esempio paradigmatico di governance possibile viene dal modello europeo. L’AI Act, la normativa dell’Unione Europea sull’intelligenza artificiale, rappresenta un primo tentativo di definire limiti, obblighi e diritti in un campo in continua evoluzione. Ciò dimostra che la politica può ancora guidare la tecnologia, non solo rincorrerla. Allo stesso modo, il dibattito su una tassazione delle imprese ad alta automazione – proposta anche in contesti OCSE – apre lo spazio a una nuova fiscalità redistributiva, che riconosca il valore sociale del lavoro umano e lo compensi anche quando non è più “produttivo” nel senso tradizionale. Anche le imprese stanno esplorando nuovi modelli. La cooperazione tra pubblico e privato in ambito formativo, la diffusione di pratiche di reskilling collettivo, l’adozione di principi ESG che includano l’equità occupazionale: sono segnali di un sistema in movimento. Alcune realtà stanno già sperimentando forme di co-governance algoritmica, in cui i lavoratori hanno voce sui criteri di automazione. Non si tratta di frenare il progresso, ma di umanizzarlo. Occorre quindi rifiutare l’idea che l’innovazione debba semplicemente “accadere”. Esiste il diritto collettivo a decidere dove, quando e come introdurre una tecnologia, e soprattutto a valutare chi ne beneficia. Non siamo spettatori, siamo ancora, almeno in parte, protagonisti della direzione che prenderà il cambiamento. Dunque, affermare che l’accelerazione tecnologica aumenterà inevitabilmente la disuguaglianza significa accettare una visione deterministica del futuro. Ma il futuro è una costruzione collettiva. Con le giuste regole, partecipazione e coraggio istituzionale, la tecnologia può essere non una minaccia, ma un campo di battaglia democratica.
Nina Celli, 10 luglio 2025