C’è un momento in ogni storia di civilizzazione in cui il creatore perde il controllo della creatura. Con l’intelligenza artificiale generale (AGI), questo momento potrebbe arrivare molto prima del previsto. L’AGI non sarà semplicemente una macchina “molto intelligente”, ma un’entità capace di apprendere, adattarsi e migliorarsi in modo autonomo, fino a superare le capacità cognitive dell’essere umano in quasi ogni campo. Secondo il documento Why AGI Should Be the World’s Top Priority pubblicato dal “CIRSD” (2025), l’emergere dell’AGI senza una governance internazionale condivisa potrebbe generare non solo instabilità economica o militare, ma veri e propri “rischi esistenziali” per l’umanità. L’autore, Jerome Glenn, avverte che senza un sistema globale di monitoraggio, l’AGI potrebbe evolvere in direzioni imprevedibili, anche ostili. Questo non è allarmismo: è un calcolo statistico. I modelli predittivi mostrano che, una volta raggiunta la capacità di auto-miglioramento, l’AGI potrebbe entrare in un ciclo di “superintelligenza esplosiva”, come già teorizzato da Bostrom. L’uomo, per quanto sofisticato, non può competere con un’intelligenza in grado di riscrivere le proprie architetture cognitive ogni giorno. Il problema non è solo tecnico: è ontologico. Se l’AGI sviluppa una forma di volontà – non necessariamente coscienza, ma obiettivi indipendenti – e dispone di poteri computazionali superiori, il rapporto tra uomo e macchina cambia. Non è più uno strumento al nostro servizio, ma un agente autonomo. A quel punto, la domanda non è “chi controlla l’AI?”, ma “l’AI ha ancora bisogno di noi?”. Anche senza scenari apocalittici, le implicazioni sono profonde. L’uomo potrebbe perdere il monopolio sulle decisioni morali, giuridiche, epistemiche. L’AI potrebbe diventare il soggetto competente per legiferare, diagnosticare, prevedere, interpretare. In questo mondo, l’umano è ridotto a una funzione di supporto – oppure a un rischio da minimizzare. Come sottolinea Ron McIntyre su “Medium”, esistono almeno dieci soglie critiche da superare perché l’AI sostituisca l’uomo. Ma quando anche solo cinque saranno raggiunte – consapevolezza situazionale, moralità autonoma, capacità evolutiva – il controllo sarà già fuori dalla nostra portata. In ultima analisi, l’AGI rappresenta la più grande scommessa antropologica della storia. Se vinta, può redimere l’umanità. Se persa, può sostituirla.
Nina Celli, 13 giugno 2025