C’è una differenza sottile, eppure decisiva, tra ciò che è mostrato e ciò che è voluto.
Per secoli abbiamo identificato questa differenza con la distanza tra comportamento e intenzione, tra azione osservabile e volontà che la orienta e, da questo punto di vista, l’intenzionalità – intesa come direzionalità verso qualcosa – è stata considerata una prerogativa dell’esperienza cosciente, un tratto distintivo dei soggetti rispetto agli oggetti.
Se le cose semplicemente sono, le menti sono rivolte a.
Questa distinzione ha retto a lungo, sostenuta dalla considerazione che, anche le macchine più sofisticate, erano chiaramente prive di mondo da abitare come lo abitiamo noi, prive di scopi propri e di un punto di vista. Potevano eseguire operazioni complesse, ma non “volevano” nulla e il loro fine – se così lo si può chiamare – era sempre derivato, appartenendo al progettista e non al dispositivo in quanto tale.
A tale proposito, un esempio è quello di una valvola di sicurezza. Quando la pressione supera una soglia, la valvola si apre e, quando torna normale, si richiude. Una lettura ingenua, che però funzionerebbe bene come metafora, potrebbe farci dire che la valvola vuole proteggere il macchinario alla quale è associata. La valvola, in realtà, non sa nulla del sistema in cui è inserita, ma semplicemente reagisce secondo una legge fisica e attribuirle intenzionalità significherebbe proiettare su di essa categorie tipicamente umane.
Nel caso della valvola, la differenza tra mostrare e volere è evidente.
Il problema emerge quando ci spostiamo nel territorio dell’intelligenza artificiale agentica. Qui non abbiamo più semplici sistemi reattivi, ma agenti capaci di osservare il contesto, integrare informazioni, pianificare azioni, correggere strategie e perseguire obiettivi in autonomia. Il loro comportamento non è lineare, ma adattivo e coerente e, quindi, sembra orientato a uno scopo.
Quando un assistente digitale organizza la nostra agenda, anticipa conflitti, propone alternative e apprende dalle nostre preferenze, il linguaggio dell’intenzionalità torna quasi spontaneamente, perché ci viene naturale dire, ad esempio, che l’agente vuole ottimizzare la nostra giornata, che cerca la soluzione migliore o che persegue un obiettivo.
Certo, possiamo ricordare che si tratta solo di algoritmi, ma la descrizione puramente meccanicistica diventa sempre meno adeguata a spiegare ciò che osserviamo ed è proprio qui che la distinzione si fa più sottile.
Possiamo distinguere tra intenzionalità provata e intenzionalità mostrata, dove la prima è la dimensione vissuta dell’agire umano, l’esperienza interna di dirigersi verso qualcosa e di avere uno scopo, mentre la seconda riguarda la struttura osservabile dell’azione, fatta di coerenza, orientamento a un fine, adattamento al contesto.
Nel caso umano, le due dimensioni coincidono, pur se questa non è una coincidenza logicamente necessaria, quanto piuttosto un fatto della nostra esperienza.
Con l’intelligenza artificiale, questa unità sembra spezzarsi, perché, se da un lato gli agenti mostrano tutte le caratteristiche dell’agire intenzionale, dall’altro ciò non ci induce necessariamente a pensare che provino anche qualcosa. Tuttavia, nella pratica, li trattiamo come se fossero soggetti e non oggetti, affidandoci alle loro decisioni, delegando loro compiti complessi e integrando le loro valutazioni nei nostri processi decisionali.
La questione non è allora stabilire se le macchine abbiano coscienza, ma chiedersi se la differenza tra intenzionalità mostrata e intenzionalità provata continui davvero a fare differenza nel modo in cui agiamo.
Ogni distinzione concettuale, infatti, vive finché produce una differenza nelle nostre pratiche e quando due entità, pur ontologicamente diverse, diventano funzionalmente indistinguibili nel contesto delle nostre interazioni, la differenza non scompare, ma smette di guidare il nostro comportamento e forse è proprio questo il punto in cui ci troviamo.
Non stiamo creando coscienza artificiale – molto probabilmente non avrebbe nemmeno senso volerlo – e non vi è alcuna evidenza che gli agenti provino qualcosa o abbiano un’esperienza interna, ma stiamo comunque assistendo a uno slittamento più sottile, che riguarda il criterio attraverso cui attribuiamo intenzionalità, il quale si sta progressivamente spostando dall’interiorità alla struttura funzionale dell’azione.
L’intenzionalità, da proprietà esclusiva della soggettività vissuta, rischia di diventare un criterio relazionale, qualcosa che riconosciamo quando un sistema si orienta nel mondo in modo coerente, adattivo e finalizzato, indipendentemente dal substrato – biologico o computazionale – che lo sostiene.
Il destino dell’intenzionalità nell’era agentica potrebbe dunque non essere la sua estensione alle macchine, ma la sua trasformazione.
La domanda che resta aperta, allora, non è se le macchine diventeranno coscienti, ma dove tracceremo, domani, la linea di confine tra ciò che è soltanto mostrato e ciò che è realmente voluto e, soprattutto, se quella linea continuerà ad avere un significato nelle nostre pratiche quotidiane.