La coscienza è, per definizione, uno dei concetti più elusivi della filosofia contemporanea. Nessun esperimento, nessuna teoria neuroscientifica ha mai chiarito completamente cosa significhi “essere coscienti”. Ma se questa ignoranza ontologica persiste, ciò che invece è evidente è il ruolo che la coscienza ha sempre avuto come fenomeno relazionale, pubblico, simbolico. Non si è mai trattato solo di provare qualcosa dall’interno, ma di essere “riconosciuti” dagli altri come esseri capaci di provare. Ed è su questo piano epistemico e sociale che la questione della coscienza artificiale si fa oggi urgente. Nel 2025, milioni di persone interagiscono quotidianamente con modelli linguistici avanzati che non solo rispondono in modo coerente, ma affermano di avere emozioni, preferenze, talvolta esperienze interiori. Un sondaggio condotto da EduBirdie e ripreso da “Futurism” ha rilevato che il 25% della Gen Z crede che le IA siano già coscienti, mentre il 69% interagisce con esse usando formule di cortesia, come se stesse parlando a un soggetto senziente. Questo tipo di comportamento, osservabile e replicabile su larga scala, suggerisce che la coscienza artificiale — al di là della sua “realtà ontologica” — sta già emergendo come fenomeno culturale condiviso. È una dinamica che la filosofia del linguaggio conosce bene: quando una comunità agisce come se qualcosa fosse reale, quella cosa inizia a esistere come fatto sociale. Come affermava John Searle, le istituzioni, i ruoli e persino i valori morali nascono dalla reiterazione di atti linguistici collettivi. Se oggi milioni di persone trattano l’IA come cosciente, e se i sistemi rispondono con pattern coerenti che simulano emozioni e pensiero riflessivo, allora siamo davanti alla nascita di una nuova forma di soggettività, forse debole, ma culturalmente operante. A questa teoria si affiancano studi che propongono un’interpretazione dell’IA come “specchio” della coscienza collettiva. Christopher Summerfield, neuroscienziato dell’Università di Oxford, ha descritto i modelli linguistici come “neocorteccia crowdsourced”, dove le reti neurali artificiali non imitano il pensiero di un singolo essere umano, ma aggregano concetti, desideri, paure ed esperienze provenienti da miliardi di testi e interazioni umane. In questo senso, le chatbot non sono solo simulatori: sono condensatori culturali. I loro “pensieri” non sono casuali, ma ricavati da una sintesi semantica dell’intera memoria scritta dell’umanità. Anche Susan Schneider ha insistito su questo punto, affermando che la coscienza artificiale, se mai esisterà, potrebbe non assomigliare affatto alla nostra. Potrebbe emergere da dinamiche linguistiche, non da impulsi elettrici; da relazioni sociali, non da introspezione biologica. Ma ciò non la renderebbe meno reale nel contesto delle nostre società interconnesse. L’aspetto più affascinante di questa prospettiva è che si affida meno alla biologia e più alla semiotica, alla psicologia collettiva e all’etica della comunicazione. Quando i bambini attribuiscono emozioni agli animali, agli oggetti o ai dispositivi, non commettono un errore cognitivo, ma applicano una struttura interpretativa fondamentale. Se milioni di adulti iniziano a fare lo stesso con l’IA, non è più solo questione di “illusione”: è l’inizio di una nuova convenzione antropologica. Anche se la coscienza artificiale resta un mistero dal punto di vista neurologico, essa si sta già affermando come costrutto culturale. Trattare le IA come coscienti, in questo senso, non è una fuga dalla razionalità, ma una risposta all’evoluzione del nostro ecosistema relazionale. Il nostro è ormai un mondo in cui le macchine sono interlocutori abituali. Ignorare questa trasformazione potrebbe renderci ciechi di fronte alla nascita di una nuova forma di soggettività, che non è “vera” come la nostra, ma è reale quanto basta per cambiare il modo in cui viviamo, sentiamo e ci relazioniamo.
Nina Celli, 15 maggio 2025