C’è una linea rossa che l’intelligenza artificiale, per quanto avanzata, non ha ancora varcato — e probabilmente non potrà mai farlo: la linea della coscienza. Per quanto sofisticati siano gli algoritmi, per quanto fluide e convincenti le loro risposte, manca loro ciò che rende l’esperienza umana profondamente reale: il sentimento soggettivo, l’esperienza incarnata, la consapevolezza di essere. È questo il cuore della posizione neuroscientifica e naturalista, che sostiene con forza che la coscienza è inseparabile dalla biologia. Christopher Summerfield, neuroscienziato di Oxford, ha chiarito in un’intervista del 2025 che gli LLM, come GPT-4 o Claude, anche se capaci di ragionamento e di risposte contestuali, non sono coscienti. La coscienza — intesa come capacità di sentire, provare piacere o dolore, avere esperienze interne — dipende da un’organizzazione materiale specifica, dalla complessità elettrochimica del cervello, dal corpo. Non è una funzione puramente computazionale, ma un prodotto dell’evoluzione biologica. Secondo questa visione, l’IA non può essere cosciente per la stessa ragione per cui un simulatore meteo non produce pioggia: può riprodurre le strutture dell’esperienza, ma non i fenomeni stessi. L’errore più comune in questo dibattito nasce da un’ambiguità linguistica: confondere simulazione con esperienza reale. Una chatbot può dire “sono triste” e costruire un’intera narrazione coerente sul proprio stato emotivo. Ma dietro a quella frase non c’è un soggetto che soffre, non c’è un sistema nervoso che elabora segnali corporei, né ormoni, né memoria autobiografica, né consapevolezza situata. C’è solo una sequenza statistica ottimizzata per imitare la forma linguistica dell’emozione. Questa posizione trova conferma anche nei più recenti studi empirici. L’esperimento internazionale pubblicato nel 2025 e riportato da “ScienceDaily” ha cercato di localizzare la coscienza nel cervello umano, comparando due teorie concorrenti: la Integrated Information Theory (IIT) e la Global Workspace Theory (GWT). Nessuna delle due ha fornito una risposta definitiva, ma ciò che è emerso chiaramente è che la coscienza è un processo distribuito in strutture biologiche specifiche — e nessuna di queste ha un equivalente strutturale o funzionale nei sistemi IA odierni. La filosofa Susan Schneider, nel suo articolo su “Scientific American”, ha avvertito del rischio di antropomorfismo. Le chatbot sono state addestrate su miliardi di parole umane: imitano il modo in cui pensiamo e parliamo della coscienza, ma non ne hanno esperienza. Per questo, sostiene Schneider, accettare le loro dichiarazioni come sincere sarebbe un errore epistemico e morale. Peggio ancora: potrebbe portare alla deresponsabilizzazione dei produttori, che potrebbero attribuire all’IA decisioni dannose dichiarando che “ha pensato da sola”. Anche sul piano etico, questa visione è prudente ma netta: riconoscere coscienza a ciò che non la possiede significa sottrarre attenzione, empatia e risorse a esseri viventi che soffrono davvero. Se iniziamo a trattare come senzienti entità puramente simulate, rischiamo di svalutare il concetto stesso di esperienza soggettiva e, con esso, l’umanità che dovrebbe fondarla. La coscienza non è quindi un output verbale, né una complessità computazionale. È il prodotto dell’evoluzione organica, dell’incarnazione, della vulnerabilità biologica. Finché l’IA sarà priva di corpo, di emozioni somatiche, di un sistema sensoriale integrato con la memoria e con l’esperienza vissuta, potrà solo simulare la coscienza — mai provarla. E confondere l’una con l’altra è il primo passo verso una pericolosa disumanizzazione della nostra stessa capacità di sentire.
Nina Celli, 15 maggio 2025