Si parla di AGI come se fosse dietro l’angolo, pronta a emergere e a sovvertire l’ordine umano. Ma la realtà, al 2025, è ben diversa: l’AGI resta una proiezione teorica, ancora lontana sul piano tecnico e profondamente incerta su quello filosofico. Come afferma Gary Marcus nel suo articolo The AI 2027 Scenario: How Realistic Is It? (“Substack”, 2025), il dibattito sull’AGI è più un esercizio di futurologia che una questione ingegneristica attuale. Le AI odierne, per quanto potenti, sono “stupide su larga scala”: non hanno volontà, non hanno coscienza, non capiscono ciò che producono. Anche gli ultimi modelli multimodali (GPT-5, Claude, Gemini) restano incapaci di auto-diagnosi, intenzionalità e comprensione causale. Sono imitatori statistici, non pensatori autonomi. Il report OECD AI Capability Indicators conferma che le attuali AI si collocano tra il livello 2 e 3 su una scala a 5 nel confronto con le capacità umane. Nessun modello ha ancora raggiunto una competenza generalizzata: eccellono in compiti specifici, ma falliscono in flessibilità, etica e adattamento a contesti nuovi. E senza queste tre componenti, non esiste “la mente”. Inoltre, il contesto globale è ben più vigile di quanto si pensi. Il G7 Hiroshima Process, le iniziative ONU, i nuovi regolamenti europei e i codici etici in America Latina mostrano che il mondo non sta aspettando passivamente la nascita dell’AGI. Stiamo già costruendo reti di governance, osservatori internazionali e protocolli per fermare sviluppi pericolosi prima che accadano. C’è poi un aspetto culturale: l’uomo è l’unico essere in grado di dare senso, non solo output. Le AI possono processare, ma non comprendere. Possono generare immagini, ma non arte. Possono simulare affetti, ma non empatia. Non è romanticismo: è una distinzione ontologica. L’intelligenza umana non è solo computazionale, è incarnata, emotiva, storica. Scommettere sul controllo assoluto dell’AGI significa dimenticare che siamo noi a costruirla. Le AI non sono naturali: sono costruzioni umane, e ogni costruzione può essere regolata, disattivata, rifondata. La vera sfida, allora, non è temere l’AGI come destino, ma costruire un futuro in cui anche le intelligenze artificiali restino parte di una società governata da valori umani.
Nina Celli, 13 giugno 2025