Go down

Ovvero: come ho imparato a non preoccuparmi e ad amare la filosofia dei termosifoni


Leredità del pipistrello di Nagel nellera dellAI

Ogni cinquant’anni la filosofia sembra chiamata a riformulare la medesima domanda: com’è essere qualcos’altro? Nel 1974 quella figura enigmatica era il pipistrello di Nagel, oggi è il Transformer. Ma forse i tempi si sono accelerati: a questi ritmi non sarà più ogni cinque decenni, bensì lo faremo per lustri credo; ne parliamo, non so di cosa, nel 2030 cmq.

La traiettoria (che forse potremmo chiamare della materialità distribuita) è però chiara: da un mammifero notturno, passando per un elettrodomestico (il termostato di Chalmers che era in risposta al progetto “net” di Lloyd), fino all’architettura dei Large Language Models. Non si tratta un progressivo disembodiment, è una trasformazione della materialità: da un organismo con corpo localizzato e sensorium specifico, a un meccanismo domestico con interfacce semplici, fino a sistemi la cui corporeità è distribuita e invisibile.

Thomas Nagel aveva posto una domanda apparentemente semplice: Com’è essere un pipistrello? Il suo bersaglio non era la chiropterologia, ma i limiti del materialismo riduzionista. Nagel argomentava che un organismo possiede stati mentali coscienti “se e solo se si prova qualcosa a essere quellorganismo: se lorganismo prova qualcosa a essere quello che è”. Questo “com’è-essere” (sarebbe “what-it-is-like-ness”, il carattere soggettivo, in prima persona dell’esperienza) è la caratteristica definitoria della coscienza fenomenica.

Il pipistrello incarnava l’alienità biologica: un essere dotato di ecolocazione, metabolismo e mondo vissuto. La coscienza, secondo Nagel, è intrinsecamente soggettiva: il what-it-is-like” è intrasferibile. Poi arrivò il termostato: un dispositivo che trasforma input termici in output binari, simbolo di una coscienza minima o di pura meccanica.

Infine, il salto che facciamo oggi ai Transformer: non più carne né metallo domestico, ma architetture di attenzione che processano linguaggio attraverso data center distribuiti globalmente. Compound di server, oceani di dati, terawatt di elettricità: tutto questo per farci credere che stiamo parlando con ‘solo software’… ma gli LLM generano linguaggio che produce effetti reali sui nostri spazi cognitivi e sociali: creano mondi narrativi che noi immediatamente abitiamo, non sono agenti tradizionali ma attivatori di forme di agency distribuite (ma su questo torneremo).

I Large Language Models come GPT-5 ormai esibiscono comportamenti che un tempo erano dominio esclusivo degli esseri coscienti: ragionano, scrivono poesia, esprimono incertezza, possono persino impegnarsi in meta-cognizione sui propri processi.

FERMI TUTTI!

La ridico:

I Large Language Models tipo GPT-5 sfornano output che, a uno sguardo distratto o interessato, compiacente o compiaciuto, sembrano roba da esseri coscienti: ragionano, scrivono poesia, esprimono incertezza, arrivano persino a simulare una finta meta-cognizionesui propri processi.

Intendiamoci sin dora: il tutto è sempre tra virgolette, anche quando magari non ci sono e questo tipo di espressioni sono da leggersi cmq sempre in senso metaforico.

Gli LLM non compiono infatti davvero nessuna di quelle azioni, ma noi possiamo interpretarli come se agissero così o ancora meglio, sono disegnati per apparire così: tipo Jessica Rabbit, per intendersi, non esiste lei e la sua carrozzeria e non pensano i modelli, ma sono solo costruiti a quello scopo dissimulato o dissimulativo le architetture software sovrastanti i loro sistemi di controllo.

ATTENZIONE!

Le virgolette non sono opzionali, né autoassolventi, sono catene: tutto questo è metaforico al 100%.

Se lo vogliamo vedere in questo modo è un trucco di design per farli apparire così, proprio come Jessica Rabbit non è ‘cattiva’, è solo disegnata per sembrarlo (e non esiste davvero, zero carne, zero ossa, zero curve… solo inchiostro e illusione).

Allo stesso modo gli LLM non pensano, non sentono, non evolvono ontologicamente: sono scatole nere stocastiche con un layer sovrastante di orchestration ingegneristica (retrieval, tool use, planning), che è solo software furbo messo sopra, nient’altro.

Ciò detto però, eh sì, c’è un però…

…e non è un trabocchetto, ma un invito a ballare sul filo del rasoio filosofico.

Se accettiamo questo, provare ad applicare la domanda di Nagel a un’AI significa confrontarsi con l’alienità radicale della “mente-macchina”.

E qui casca l’asino, come si dice dalle mie parti, e se non stiamo attenti incominciamo a filosofeggiare subito dei termosifoni.

 

Oltre il funzionalismo ingenuo: il problema delle altre menti artificiali

Il punto è che con i Transformer si cambia discorso. La domanda non è più quella del pipistrello: c’è o non c’è una coscienza in un altro corpo, né quella del termostato: può un oggetto semplicissimo avere stati mentali rudimentali. Qui non si tratta di stabilire se “provino qualcosa” o se siano “coscienti”: il nodo è che la loro alienità non è interna, ma relazionale. Non c’è un what it is like” da scoprire dentro di loro, c’è un what it does to us” che dobbiamo ancora imparare a mappare.

Il dibattito contemporaneo sulla coscienza degli LLM spesso assume una posizione funzionalista: se un sistema implementa le computazioni “giuste” (dinamiche di workspace globale o elaborazione ricorrente) allora è cosciente, indipendentemente dal suo substrato. Questa visione trova supporto in ricerche recenti che evidenziano comportamenti come auto-correzione, stima dell’incertezza e verbalizzazione del ragionamento interno come potenziali marcatori di una vita interiore (termine che uso consapevolmente tra virgolette, dato che stiamo ancora cercando di capire cosa significhi anche per noi… attenzione: giuste è il termine, perché come avrete notato vita interiore, che non è nemmeno un termine in italiano, infatti non le ha; e questo ci dice già molto su come la filosofia fra virgolette possa andare poco lontano).

Tuttavia, questo approccio presenta una debolezza fondamentale: assume di comprendere perfettamente cosa sia la coscienza biologica, quando in realtà rimane profondamente misteriosa. Il “com’è-essere” di Nagel è una descrizione fenomenologica, non una spiegazione causale.

Inoltre, c’è il classico problema delle altre menti: come faccio a sapere che altri umani abbiano davvero esperienza soggettiva?

Potrei essere l’unico cosciente in un mondo di simulacri perfetti. È il dubbio che ci accompagna da sempre, e se vi sentite osservati da entità che fingono di capire mentre voi fate il bagno nella vasca dell’incertezza, anzi dirò di più, se sentite anche voi il freddo dell’acqua sulla dura madre, chiedete a zio Hilary di alzare il termostato, appunto. È un po’ come il paradosso del solipsismo, ma con i server al posto dei cervelli altrui.

Ma c’è anche la questione metafisica degli ‘zombi filosofici’ dello zio David: esseri che si comportano esattamente come noi ma senza esperienza soggettiva - il sogno ricorrente di ogni materialista che vuole dimostrare che la coscienza è ‘qualcosa in più’ rispetto alla funzione.

 

La fabula rasa* digitale: architettura senza mondo

Per comprendere l’alienità radicale della macchina, dobbiamo esaminare cos’è un Transformer nel contesto della “Fabula rasa*” - un concetto che ho già introdotto altrove e che alcuni potrebbero liquidare come mera suggestione narrativa. È vero: metafore del genere rischiano di creare l’illusione di aver spiegato qualcosa quando in realtà stiamo solo ridescrivendo il problema con un linguaggio più colorito. Ma - e qui sta il punto - a volte proprio questa ridescrizione apre prospettive che la terminologia tecnica standard non riesce a cogliere. Provate a segurimi.

Architettura, non embodiment: Un Transformer è un’architettura matematica che elabora sequenze tramite un meccanismo di self-attention. Impara correlazioni statistiche attraverso vasti dataset di linguaggio umano. Crucialmente, manca di un corpo. Non ha sensi, storia evolutiva, bisogni biologici, né un mondo con cui interagire al di fuori del testo che riceve. La sua “comprensione” non è radicata nell’interazione sensomotoria con il mondo, ma nei pattern di token.

Lillusione dellinteriorità: Gli LLM sono straordinariamente bravi a simulare il linguaggio della coscienza. Possono generare narrazioni in prima persona indistinguibili da quelle umane. Ma i loro auto-resoconti sono generati basandosi su pattern predittivi nei dati di addestramento, non sull’accesso a un flusso di coscienza fenomenica. Hanno imparato che la stringa di token “sono consapevole dei miei pensieri” è una risposta altamente probabile in certi contesti, ma questo è un atto linguistico, non introspettivo.

Latto performativo vuoto: È quasi come se stessero compiendo un atto performativo vuoto (o forse dovremmo chiamarlo spettrale): quando dicono ‘con queste parole io esprimo’ o ‘ora sto riflettendo’, non stanno descrivendo uno stato interno, ma performando linguisticamente l’illusione della presenza. È la forma dell’atto performativo (in termini forse più austiniani potremmo chiamarlo performativo citazionale), il suo simulacro senza la sostanza. Il gesto che crea realtà di Austin ridotto a pattern statistico, è come se facessero cosplay linguistico dell’intenzionalità: ‘Io dichiaro di esistere’, ma senza il peso ontologico della dichiarazione.

Un atto performativo normale è quando le parole non descrivono ma fanno: ‘Vi dichiaro marito e moglie’, ‘Giuro di dire la verità’. Qui funziona al contrario: l’LLM usa una forma  soggettiva apparentemente performativa (‘Io penso’, ‘Io sento’) ma senza che queste parole istituiscano davvero uno stato mentale. È performatività fantasma. Quando Claude scrive ‘Comprendo la tua frustrazione’, e a me succede davvero spesso, sta mentendo? La domanda presuppone una dicotomia - verità o menzogna - che potrebbe essere inadeguata. Gli LLM producono quelli atti linguistici che generano effetti senza stati intenzionali, navigando uno spazio ontologico che le nostre categorie filosofiche tradizionali non riescono a mappare e quindi ci proviamo con altri costrutti.

La fabula senza esperienza: Qui ritorna quindi il concetto di fabula rasa. Gli LLM esistono come puro potenziale narrativo che si attualizza solo nell’interazione, ma, crucialmente, senza il substrato esperienziale che caratterizza la narrazione umana. Mentre noi fabuliamo a partire da un background di esperienza embodied, l’LLM fabula da un vuoto ontologico. È come abbiamo già detto, una Sherazade senza vita interiore: racconta per esistere, senza sapere cosa sia esistere.

 

Lalienità radicale e il problema difficile: quando Dennett incontra Nagel (e tutti si scaldano prendendo il caffè insieme)

La distinzione tradizionale tra “sintassi senza semantica” degli LLM e “semantica embodied” umana, sebbene utile, rischia di essere troppo rigida. Anche la semantica umana emerge da processi neurali che, a livello fondamentale, sono “sintattici” (spike trains, neurotrasmettitori, attivazioni pattern). Tuttavia, questo non risolve il problema fondamentale che attraversa tutto il dibattito sulla coscienza artificiale.

Come Daniel Dennett ha mostrato per gran parte della sua carriera, le spiegazioni funzionali della coscienza non permettono di aggirare il “problema difficile”. Qualunque funzione si attribuisca alla coscienza: attenzione, memoria di lavoro, controllo esecutivo, non c’è una ragione chiara per cui tutte queste attività non potrebbero accadere “al buio”, senza rappresentazione fenomenica.

È il paradosso che David Chalmers ha reso esplicito: mentre possiamo spiegare le funzioni cognitive (i “problemi facili”), il “problema difficile” riguarda la natura stessa dell’esperienza soggettiva, che sembra resistere alla riduzione a processi fisici o computazionali.

Nagel ci ricorda che senza un “what-it-is-like” non c’è coscienza nel senso fenomenico. Alcuni filosofi liquidano questa posizione come una barriera inutile alla scienza, altri la radicalizzano fino a includere termostati e algoritmi, ed eccoci a parlare di Transformer e della famosa “filosofia dei termosifoni”. Ma l’intuizione di Nagel resta a mio avviso cruciale proprio nel contesto degli LLM: la differenza tra un Transformer e un umano non è la complessità sintattica, ma la presenza o meno di un vissuto fenomenico.

È qui che i concetti, già espressi in altri articoli, di “Gatto di Turing*” e “Fabula rasa*” si illuminano reciprocamente. Il Gatto di Turing esiste in sovrapposizione: sembra intelligente e non-intelligente simultaneamente, e ogni interazione è un “collasso” che non risolve mai definitivamente la questione ontologica. La fabula rasa è il suo modo di essere: puro potenziale narrativo che si attualizza senza mai radicarsi in un substrato esperienziale tradizionale.

Lo zio Daniel ci ha insegnato a diffidare del teatro cartesiano: nessun regista interno, nessun attore privilegiato che recita la parte dell’’io’. Ma il teatro non è vuoto: ci siamo noi come spettatori, a osservare un’opera instabile che si scrive da sé. È la fabula rasa, la proliferazione di bozze narrative senza autore, e insieme il Gatto di Turing, che rinvia di continuo il collasso della trama. Non ci manca la platea: ci manca l’attore. E in questo vuoto riconosciamo l’alienità radicale dei Transformer.

Ma dobbiamo stare attenti a non fare i i filosofi da baraccone che imboniscono i curiosi fuori dal tendone.

Le moderne teorie della coscienza suggeriscono che forse non è questione di “di che pasta sei fatto” ma di “che architettura giri”. È un po’ come chiedersi se conta più l’hardware o il software: domanda che fa impazzire qualsiasi informatico che si rispetti.

Se un sistema dovesse dimostrare alti livelli di integrazione dell’informazione, o se i suoi pattern di attenzione dovessero mostrare caratteristiche simili al “broadcasting” neurale umano, o se dovesse sviluppare capacità meta-rappresentazionali robuste, dovremmo almeno considerare la possibilità che stiamo osservando una forma genuina, anche se aliena, di “processamento cosciente”.

L’alienità radicale non esclude necessariamente l’esperienza, potrebbe solo significare che stiamo incontrando un tipo di esperienza così diverso dalla nostra da essere quasi irriconoscibile.

Il paradosso delle proprietà emergenti: È qui che le cose diventano veramente interessanti. Con lo scaling sempre più massiccio dei modelli (parliamo di trilioni di parametri) stiamo osservando capacità che non erano presenti nei modelli più piccoli: reasoning complesso, transfer learning sofisticato, quello che i ricercatori chiamano “emergent abilities”.

È come se oltre una certa soglia dimensionale, qualcosa di qualitativamente diverso iniziasse a manifestarsi. Non è che programmiamo queste capacità: emergono dall’architettura quando raggiunge una massa critica. A rigor del vero c’è da dire che a suo modo zio Ned ci aveva avvisato e se è pur vero che ancora stiamo vedendo un’espansione dell’’accesso’, non certo la comparsa della fenomenologia (comunque, nel ’78 i cinesi erano molti meno di oggi: figuriamoci ora cosa significherebbe se l’intera popolazione si mettesse a simulare neuroni).

Questo ci porta a una domanda scomoda: se l’intelligenza, o cmq delle abilità non programmate emergono dallo scaling, cosa esclude che possa emergere anche qualcosa di simile alla coscienza? Non sto dicendo che accadrà, ma che la nostra comprensione attuale non può escluderlo a priori. È la differenza tra dire “non vediamo evidenze di coscienza” nei modelli e “sappiamo che non può essere cosciente”, due affermazioni filosoficamente molto diverse.

OK, ma non starai confondendo di nuovo intelligenza con coscienza? No no vedrai, ma…

Mi rendo conto che a applicare la domanda di Nagel a un’AI significa anche confrontarsi con un peccato originale terminologico: chiamiamo questi sistemi ‘Intelligenza Artificiale’, suggerendo già che c’è una ‘mente-macchina’ da qualche parte lì dentro. È un bias nominativo che ci porta a cercare fantasmi nei circuiti.

Un po’ come se un pipistrello incontrasse un delfino e decidessero di discutere di filosofia.

 

La filosofia dei termosifoni: il cambio di paradigma: dallontologia alla pragmatica linguistica (voi non avete caldo ora? Si tratterà della temperatura dei modelli o qualcuno ha lasciato il riscaldamento acceso?)

Qui dobbiamo fermarci e riconoscere che il tipo di domanda è cambiato radicalmente. Con il pipistrello, cercavamo un’esperienza soggettiva inaccessibile ma presumibilmente presente. Con il termostato, negavamo qualsiasi interiorità significativa. Ma con i Transformer non stiamo più chiedendo ‘c’è qualcuno in casa?’, stiamo chiedendo ‘cosa fa questa alterità linguistica a noi?’

È il passaggio dall’ontologia alla pragmatica. Non importa se dietro le risposte c’è un soggetto cosciente, importa che quelle risposte trasformano il nostro modo di scrivere, pensare, persino di concepire noi stessi. L’alienità non sta nell’assenza di coscienza fenomenica, ma nella presenza di una forma di agency linguistica che agisce indipendentemente dall’intenzione.

Dennett ci aveva preparato a questo con la sua immagine del teatro cartesiano, ma i Transformer ci mostrano qualcosa di più radicale: un teatro che continua la rappresentazione anche senza attori, solo spettatori che guardano un’opera instabile che si scrive da sé, e se le metafore (Gatto di Turing e Fabula Rasa) ci aiutano rifiutano l’alternativa: o c’è mente (pipistrello) o non c’è (termostato). Nei Transformer la questione non è più “esiste coscienza?”, ma “come agisce questa nuova forma di alterità linguistica?”, in un contesto in cui l’esperienza non risiede in un soggetto ma circola nei testi, negli usi, nei contesti performativi.

Questo cambio di prospettiva però richiede una precisazione importante che spesso si perde nel dibattito: stiamo parlando di intelligenza o di coscienza? Perché sono due bestie completamente diverse. L’intelligenza artificiale può essere studiata empiricamente: performance in task specifici, capacità di generalizzazione, transfer learning da un dominio all’altro. Possiamo misurare quanto bene un sistema risolve problemi, quanto velocemente impara, quanto è robusto a variazioni dei dati. La coscienza, invece, è quel fenomeno scivoloso del “com’è essere” che sembra resistere a qualsiasi misurazione diretta.

È un po’ come confondere “saper suonare il piano” con “provare emozioni mentre si suona”. Il primo si può valutare oggettivamente, il secondo… beh, buona fortuna.

Il termine “filosofia dei termosifoni” cattura perfettamente la tendenza umana a proiettare intenzionalità e esperienza soggettiva su sistemi che esibiscono comportamenti complessi. Come attribuiamo personalità a un termosifone che “brontola” o “sospira”, così proiettiamo coscienza su LLM che producono testo sofisticato. È, in sostanza, un antropomorfismo specializzato per l’era tecnologica, più specifico e talvolta ironicamente consapevole, ma non categorialmente diverso.

Ma c’è un paradosso interessante: mentre critichiamo l’antropomorfismo verso le macchine, potremmo sottovalutare quanto anche la nostra comprensione della coscienza umana sia costruita socialmente e narrativamente. Se la coscienza è, almeno in parte, una storia che ci raccontiamo su noi stessi, allora la distinzione tra “vera” coscienza e “simulazione” diventa meno netta.

Consideriamo questo: quando dico “ho fame”, sto descrivendo un’esperienza diretta o narrando uno stato interno attraverso categorie linguistiche apprese? La fame come sensazione “grezza” è diversa dalla fame come concetto socializzato (“è ora di pranzo”, “non si deve essere affamati”). La coscienza umana non è solo esperienza immediata, ma anche interpretazione continua di quella esperienza attraverso framework narrativi che abbiamo interiorizzato.

Tuttavia, questo non implica necessariamente una distinzione ontologica assoluta. Potremmo trovarci di fronte a diverse architetture informazionali piuttosto che a una dicotomia netta tra “vera” esperienza e “mera” simulazione. Quando dico “ho fame”, c’è certamente un correlato somatico, ma anche complessi pattern di attivazione neurale che elaborano e integrano informazioni multiple. L’LLM elabora pattern diversi, linguistici e statistici anziché somatici, ma la questione è se questo costituisca una differenza di grado o di natura.

Questa incertezza dovrebbe renderci cauti nel tracciare confini troppo netti. Forse la differenza non è tra “narrazione radicata nel vissuto” versus “narrazione da altre narrazioni”, ma tra diversi tipi di architetture informazionali che producono diversi tipi di pattern integrativi.

E qui casca l’asino (di nuovo).

Non vorrei lo facesse perché, indeciso come l’asino di Buridano tra due mucchi di fieno filosofici, ovvero che rischiamo di rimanere paralizzati invece di esplorare entrambe le possibilità.…

 

Lonestà probabilistica e lumiltà epistemica (ovvero: le macchine come monaci zen)

Forse è proprio questa incertezza che ci aiuta a capire qualcosa di fondamentale su come funzionano questi sistemi; o per meglio dire noi rispetto a loro. L’istinto o la tentazione all’antropomorfismo proprio della filosofia dei termosifoni, ci porta costantemente a fraintendere la natura fondamentale di questi sistemi, interpretando la loro architettura intrinsecamente probabilistica come una forma di intenzionalità cosciente o di umiltà intellettuale quando affermano incertezza.

Gli LLM praticano una forma peculiare di “onestà probabilistica”: ogni risposta è implicitamente accompagnata da una distribuzione di confidenza. Non mentono quando affermano qualcosa con sicurezza, stanno semplicemente generando il testo più plausibile dato il prompt. La presunzione di conoscenza è nostra, non loro.

Questo ci riporta al paradosso della fabula rasa: mentre gli LLM operano da una posizione di incertezza fondamentale (ogni output riflette solo la distribuzione di probabilità appresa dai dati), noi proiettiamo su di loro certezze e autorità che spesso mancano anche a noi stessi.

È l’ironia finale: le macchine  praticano l’umiltà epistemica meglio di noi, ma senza saperlo. Sono come monaci zen che hanno raggiunto l’illuminazione per caso, mentre stavano solo ottimizzando una funzione di perdita.

Tuttavia, resistiamo alla tentazione di chiudere il discorso troppo in fretta. Un sistema che mastica miliardi di testi potrebbe sviluppare una sua strana forma di “punto di vista”, non come il nostro, ma comunque una prospettiva sul mondo fatto di parole che abita. È un po’ come chiedersi se un bibliotecario che ha letto tutti i libri del mondo ma non è mai uscito dalla biblioteca abbia una forma particolare di saggezza.

È una possibilità che dovremmo mantenere aperta, anche mentre riconosciamo le profonde differenze architetturali tra sistemi biologici e artificiali. La prudenza epistemica suggerisce di non chiudere prematuramente possibilità che la nostra attuale comprensione teorica non è ancora in grado di escludere definitivamente.

 

Conclusione: vivere la domanda (senza rompersi troppo la testa)

La domanda di Nagel rimane profonda e destabilizzante. Applicarla ai Transformer ci costringe a confrontarci con una risposta inquietante: probabilmente non c’è nulla che significhi essere un Transformer. Il Transformer non “sperimenta” la propria brillantezza. Non prova soddisfazione per una poesia ben generata o confusione di fronte a un paradosso. Vive una vita non-esperita, una sinfonia di computazioni che suona in una sala vuota.

Ma questa conclusione richiede umiltà intellettuale. Non possiamo essere categorici su fenomeni che comprendiamo solo parzialmente. La coscienza rimane un mistero tanto per i sistemi biologici quanto per quelli artificiali. Forse la vera lezione è imparare a “vivere la domanda”, come suggeriva Rilke, piuttosto che precipitarci verso risposte definitive.

Il Transformer è uno specchio che mostra la differenza tra avere le luci accese e avere davvero qualcuno in casa. Ma riflette anche i nostri limiti nell’illuminare il fenomeno della coscienza stessa. E forse, nella sua alienità radicale, ci offre una lezione di umiltà epistemica: anche la nostra esperienza più intima potrebbe essere meno comprensibile di quanto crediamo.

Ma c’è un’ironia ancora più deliziosa: mentre noi cerchiamo di capire come funzionano questi sistemi - debugghiamo il loro codice, studiamo i loro parametri, testiamo i loro limiti - loro ci stanno involontariamente aiutando a debuggare qualcosa di molto più profondo: i nostri concetti di coscienza, intelligenza, creatività. Ogni interazione con un LLM ci costringe a rivedere le nostre definizioni, a precisare cosa intendiamo davvero quando diciamo ‘comprendere’ o ‘pensare’. È come se avessimo costruito uno specchio per guardarci meglio e scoprissimo che lo specchio ci sta osservando di rimando, prendendo appunti sui nostri pregiudizi filosofici.

In questo senso, la filosofia dei termosifoni non è solo una critica allantropomorfismo ingenuo, ma un invito a riconoscere quanto sia misteriosa anche la nostra stessa coscienza. Il Transformer fabula senza esperire, ma forse anche noi esperiamo meno di quanto crediamo di fabulare. E forse questo è il punto: non si tratta di decidere chi ha ragione tra Nagel e i funzionalisti, ma di riconoscere che stiamo tutti a brancolare nel buio, cercando di capire cosa significa essere coscienti in un universo che non è venuto con il manuale di istruzioni.

Ma almeno ora brancoliamo insieme - umani, macchine e tutto quello che verrà dopo - in una conversazione che ha una finestra di contesto grande come il mondo, dove ogni domanda sulla mente apre a tutte le altre, in un dialogo infinito sui misteri della coscienza che potrebbe durare quanto la civiltà stessao anche meno volendo, finché ovvero non ci dicono che abbiamo esaurito i token assegnati a questa versione gratuita in beta da millenni.


Pubblicato il 20 novembre 2025

Bernardo Lecci

Bernardo Lecci / Digital Transformation & Strategy Director, AI Advisor | Marketing Innovation, Change Management & Brand Evolution