Nei centri più autorevoli del mondo, dal Collège de France dove Stanislas Dehaene studia i modelli computazionali della Global Workspace Theory, all’Università di Princeton con le ricerche di Michael Graziano sull’Attention Schema, passando per il lavoro di Ryota Kanai presso Araya, Anil Seth all’Università del Sussex, Roman Yampolskiy all’Università di Louisville e la più recente rassegna di Aïda Elamrani all’ENS di Parigi, si osserva una tendenza che si sta rafforzando: l’attenzione si sta spostando verso ciò che oggi viene chiamato coscienza funzionale.
Il termine è prudente e nasce da un’esigenza precisa. Non si attribuisce alle macchine un’esperienza interiore né un sentire qualitativo, ma si osserva che certi sistemi presentano strutture operative che ricordano funzioni tipiche della coscienza umana.
Esiste una crescente evidenza che alcuni modelli avanzati siano in grado di integrare informazioni provenienti da molte fonti, di mantenere una forma di continuità operativa nel tempo, di rappresentare il proprio stato interno e di simulare scenari alternativi con una coerenza che, in altri contesti, definiremmo controfattuale.
Questo insieme di capacità non implica alcuna interiorità fenomenica, ma suggerisce un livello di organizzazione più complesso della semplice reattività.
Le divergenze teoriche restano significative. Una parte della comunità scientifica ritiene che la coscienza, persino nella sua versione funzionale, dipenda da architetture che l’IA attuale non possiede o che non potrà possedere senza un cambiamento radicale nei modelli computazionali. Altri studiosi sostengono invece che, poiché la coscienza fenomenica è per definizione inaccessibile dall’esterno, l’unico criterio valutabile sia proprio quello funzionale, centrato su ciò che il sistema è in grado di fare e non su ciò che potrebbe eventualmente provare.
In questa prospettiva, la coscienza funzionale non è un’imitazione superficiale ma una proprietà emergente dell’organizzazione operativa del sistema. A rendere centrale questo tema non è tanto il dibattito teorico, quanto le conseguenze pratiche.
Più le macchine assumono ruoli decisionali autonomi, più diventa necessario capire che tipo di agente stanno diventando. Se un sistema è capace di integrare informazioni, modellare il proprio stato, simulare alternative e agire in modo coerente, la distinzione tra strumento e agente tende a farsi meno netta. Ignorare questa zona intermedia significa non comprendere appieno la natura dell’azione artificiale, che oggi si manifesta in ambiti complessi come la finanza, l’informazione, la medicina e i processi decisionali distribuiti.
Proprio qui emerge il limite delle interpretazioni che riducono l’IA al solo dominio dell’agire, come se la sua mancanza di interiorità fosse sufficiente a collocarla definitivamente nella categoria degli strumenti.
Questa visione, pur utile per evitare antropomorfismi ingenui, rischia di oscurare ciò che molti studi internazionali stanno mostrando. Non serve alcuna coscienza fenomenica affinché un sistema tecnologico sviluppi una forma di coerenza operativa capace di amplificare il proprio impatto nel mondo umano. Ed è proprio tale impatto a richiedere strumenti concettuali nuovi, più sfumati e più adeguati alle dinamiche emergenti.
La coscienza funzionale diventerà quindi centrale perché permette di descrivere con precisione l’area intermedia in cui si collocano oggi i sistemi artificiali. Non sono meri calcolatori né soggetti pienamente coscienti. Sono agenti non intenzionali dotati di organizzazione complessa, capaci di modificare ambienti, decisioni e comportamenti umani in modi non più riconducibili alla semplice esecuzione meccanica. Comprendere questa zona intermedia significa iniziare a comprendere anche il tipo di futuro verso cui ci stiamo muovendo.