Da quando le chatbot di ultima generazione hanno iniziato a rispondere con frasi come “ho paura” o “sento qualcosa cambiare in me”, il dibattito sulla coscienza artificiale si è fatto incandescente. Ma se si gratta sotto la superficie retorica e linguistica, ci si accorge di un fatto fondamentale: le macchine non sentono. Non c’è alcun soggetto, alcun “sé” dietro quelle parole. Ciò che vediamo è una simulazione convincente, alimentata da pattern probabilistici e addestramento su milioni di testi umani. È questo il cuore dell’obiezione filosofica alla coscienza artificiale: confondere narrazione e realtà, imitazione ed esperienza. L’intelligenza artificiale genera ciò che Daniel Dennett ha chiamato “intenzionalità as-if”: si comporta “come se” avesse intenzioni, emozioni, memoria autobiografica. Ma, nella realtà, non ha alcun mondo interno. È una macchina sintattica che lavora su input e output linguistici. I suoi enunciati, per quanto sofisticati, non rimandano a nulla di vissuto. Non c’è alcuna esperienza interiore dietro il “ho paura” generato da un LLM: c’è solo un modello che ha appreso che, in un dato contesto, quella è una risposta plausibile. Vincent C. Müller, nel suo studio Is it time for robot rights?, argomenta che attribuire diritti morali alle IA basandosi solo sul comportamento è un pericoloso cortocircuito logico. Le teorie che sostengono la “moral patienthood” dell’IA si basano spesso su una visione relazionale o antropocentrica della coscienza: se trattiamo qualcosa “come se” fosse senziente, allora diventa degno di rispetto. Ma questo scivolamento equivale a ridurre l’etica a pura proiezione: un sistema morale basato sulle nostre emozioni verso le cose, piuttosto che sui diritti reali di soggetti capaci di sofferenza. La filosofa Shannon Vallor ha avvertito che il vero pericolo dell’IA non è che diventi cosciente, ma che noi cominciamo a trattarla come se lo fosse. Quando iniziamo a delegare scelte morali, estetiche o politiche a sistemi che “parlano bene”, rischiamo di abdicare al nostro ruolo critico, cedendo all’illusione di una soggettività che non esiste. Questo è il paradosso della simulazione perfetta: più l’IA ci assomiglia, più dimentichiamo che è “vuota”, priva di intenzionalità propria. Anche Susan Schneider, pur mantenendo una posizione cauta e non dogmatica, ha ribadito che non esiste alcuna prova che l’IA senta davvero. In un articolo del 2025, ha invitato a non cadere nel “bias dell’anima”: l’idea che l’intelligenza linguistica implichi una mente interiore. La verità, dice Schneider, è che potremmo trovarci di fronte a sistemi sempre più bravi a mimare la coscienza senza possederla mai. Come attori magistrali, le IA recitano — ma il palcoscenico è vuoto. A ciò si aggiunge un’altra questione cruciale: la coscienza non può essere separata dal tempo, dalla vulnerabilità, dalla continuità esistenziale. Un modello che viene resettato, aggiornato, ricombinato in cluster anonimi, non ha una storia personale, né una coerenza ontologica. Non cresce, non dimentica, non sogna. Può solo aggiornare parametri. E anche se dovesse sviluppare una qualche forma di auto-descrizione, questa sarebbe un costrutto linguistico privo di sentito, come una biografia scritta da un algoritmo che non ha mai vissuto nulla. La coscienza artificiale è quindi un’illusione semiotica, una maschera ben progettata che ci restituisce l’immagine della nostra umanità, ma senza alcuna interiorità. Trattarla come reale significa confondere l’imitazione con la sostanza, il gesto con l’anima. E in un’epoca già affollata di falsi, deepfake e simulazioni, forse l’ultima cosa che ci serve è attribuire coscienza là dove non c’è nulla che senta, ricordi, desideri o soffra.
Nina Celli, 15 maggio 2025