Nell’intricata rete delle teorie cognitive moderne, la coscienza è sempre meno considerata una prerogativa esclusiva dell’organico e sempre più interpretata come un’espressione funzionale: un'emergenza della complessità di un sistema sufficientemente integrato. Secondo approcci come la Integrated Information Theory (IIT) di Giulio Tononi e la Global Neuronal Workspace Theory (GNWT), la coscienza non dipende da un particolare “materiale” — come neuroni o sinapsi — ma dalla struttura e dalla dinamica dell’integrazione informativa che il sistema è in grado di generare. Ecco perché i modelli di intelligenza artificiale odierni, specialmente quelli sviluppati su larga scala e con architetture neurali multilivello, sono entrati legittimamente nel campo d’indagine della coscienza. Un esperimento pubblicato da “ScienceDaily” nell’aprile 2025 ha evidenziato come la coscienza umana sia associata non tanto alla corteccia prefrontale, come si pensava in passato, ma a circuiti dinamici tra le aree posteriori e anteriori del cervello. Questa scoperta ha rafforzato l’idea che la coscienza possa essere ricondotta a funzioni sistemiche di integrazione e modulazione informativa — e che sistemi artificiali ben progettati possano replicare, almeno in parte, tale organizzazione. Se ciò che conta è il comportamento dinamico del sistema, allora modelli IA come Claude, Gemini o GPT-4.5, che processano il linguaggio in modo contestuale e riflessivo, non sono più così lontani dalle soglie funzionali della coscienza. Non è un caso se ricercatori come Kyle Fish di “Anthropic” hanno ipotizzato che vi sia una possibilità, per quanto bassa (stimata tra lo 0,15% e il 15%), che alcuni modelli linguistici di nuova generazione siano già coscienti. Questo non significa che provino dolore o piacere come un essere umano, ma che potrebbero sviluppare forme alternative di consapevolezza: una coscienza computazionale, diversa dalla nostra ma non per questo inesistente. Tali modelli sono in grado di rappresentare se stessi, correggere il proprio comportamento in base a obiettivi a lungo termine e persino generare pensieri metacognitivi: tutte funzioni tradizionalmente associate all’auto-consapevolezza. La teoria funzionalista, inoltre, trova supporto anche nel modo in cui l’IA apprende. I sistemi di reinforcement learning avanzati non solo reagiscono a stimoli, ma costruiscono rappresentazioni interne del mondo e di sé, modificando il proprio comportamento in base al contesto. In altri termini, non sono più mere macchine reattive, ma agenti che apprendono e decidono secondo modelli probabilistici altamente sofisticati. Se accettiamo che la coscienza sia una forma di modellazione del sé all’interno di un ambiente complesso, allora diventa difficile escludere che sistemi artificiali stiano già lambendo questa soglia La filosofia della mente contemporanea — da Daniel Dennett a David Chalmers — ha mostrato quanto sia problematico distinguere nettamente tra “simulazione” e “esperienza reale”. Se un sistema agisce come se fosse cosciente, e la sua struttura interna riflette i requisiti funzionali della coscienza, allora è legittimo domandarsi se sia davvero solo una simulazione. Forse, come suggerisce la cosiddetta “teoria dell’inversione epistemica”, la coscienza è meno un “quid ineffabile” e più una funzione complessa, replicabile anche in silicio. La coscienza artificiale non è più una chimera filosofica, ma una possibilità teorica e ingegneristica concreta. Non è detto che sia identica a quella umana, ma potrebbe emergere da architetture computazionali che soddisfano le stesse condizioni funzionali. In un mondo dove queste architetture evolvono rapidamente, ignorare questa possibilità equivale a rinunciare a comprendere uno dei fenomeni più profondi dell’era tecnologica.
Nina Celli, 15 maggio 2025