Go down

Cosa distingue davvero l’intelligenza artificiale dalla coscienza umana? Partendo dalla teoria della Mind–Object Identity di Riccardo Manzotti, questo articolo propone una lettura critica dei modelli linguistici generativi come strumenti potenti ma non autonomi. Gli LLM predicono, non comprendono. Non sono cervelli alternativi, ma interfacce statistiche che vanno integrate in infrastrutture cognitive responsabili. Oltre l’entusiasmo e il negazionismo, la vera sfida è progettare un uso consapevole e tracciabile dell’IA, distinguendo prestazione linguistica da comprensione situata. Una riflessione per chi vuole pensare il digitale con rigore e senza scorciatoie.


Che cosa intendiamo oggi quando parliamo di conoscenza, coscienza e intelligenza? Se non distinguiamo con rigore questi termini, rischiamo di scambiare correlazioni statistiche per comprensione, la sintassi per semantica, la performance per intenzionalità. Riccardo Manzotti, filosofo e ingegnere elettronico, propone da anni un cambio di sguardo radicale. Con la sua teoria della Mind–Object Identity (MOI), afferma che la coscienza non è qualcosa che si genera “dentro” il cervello, ma coincide con gli oggetti esterni con cui il corpo è in relazione. L’esperienza, in questa prospettiva, non è un effetto soggettivo, ma un fatto materiale, condiviso, reale.

Nel suo articolo “Don Ferrante della IA”, pubblicato su L’Indiscreto a luglio 2025, Manzotti critica chi riduce gli attuali modelli linguistici a semplici strumenti statistici, accusandoli di essere ciechi alla svolta in corso. Come Don Ferrante nei Promessi Sposi, che nega la peste perché non rientra nelle sue categorie teoriche, anche certi esperti – dice Manzotti – si rifugiano in schemi superati per non riconoscere il nuovo.

Accolgo la provocazione. E rilancio. Partendo proprio dal suo lavoro, vorrei proporre una lettura sistemica e operativa di ciò che oggi rappresentano i Large Language Models – gli LLM – senza idolatrie né rimozioni. Gli LLM non sono coscienti, non capiscono, non pensano. Ma diventano parte attiva del nostro ambiente cognitivo, e per questo vanno integrati con criteri precisi. La questione non è solo tecnica. È filosofica, epistemica, politica.

Le neuroscienze descrivono da anni il cervello come un sistema predittivo: non una centralina simbolica, ma una macchina che anticipa il mondo, corregge costantemente le proprie ipotesi, agisce. Anche gli LLM funzionano così: predicono parola dopo parola, stimando la probabilità che un’espressione segua quella precedente. La somiglianza è superficiale, però. Il cervello è immerso in un corpo, agisce in un contesto fisico, assume decisioni. I modelli linguistici lavorano su testo, senza accesso al mondo, senza obiettivi intrinseci, senza scopi.

Questa differenza non è un dettaglio. È ciò che distingue un’intelligenza situata da un sistema di generazione linguistica. Quando si parla di hallucinations, si intendono proprio gli errori tipici degli LLM: risposte plausibili ma infondate, prodotte non per malafede (che non hanno) ma per struttura. Come osserva Walter Quattrociocchi, “l’intelligenza artificiale non è davvero intelligente: è una questione di statistica”.

Anche il nostro cervello sbaglia, certo. Anche noi vediamo ciò che vogliamo vedere, sentiamo ciò che ci conferma. Ma un essere umano può rendersi conto dell’errore, può cambiare idea, può riflettere. La macchina no. E non perché sia difettosa, ma perché non è progettata per farlo.

Il paradosso emerge con forza nel nostro rapporto quotidiano con l’informazione. In un mio precedente articolo ho raccontato il sollievo provato nel cancellare oltre diecimila note archiviate in Obsidian: testi che avrei potuto rileggere, combinare, analizzare, e che invece erano diventati rumore. Borges lo aveva previsto con la sua Biblioteca di Babele: avere tutto il sapere disponibile non equivale a comprenderlo. Gli LLM, che incorporano milioni di testi, non “sanno” di più: dispongono di correlazioni, non di concetti.

Il vero salto di qualità non è accumulare dati, ma decidere cosa ha senso conservare, e perché. È qui che torna utile la lezione di Richard Feynman, secondo cui un vincolo – anche arbitrario – può attivare la creatività. Porre limiti non è ridurre: è scegliere. È focalizzare. E ciò vale sia per l’essere umano che per l’IA generativa.

In un ecosistema cognitivo distribuito, la documentazione è l’infrastruttura invisibile che orienta la conoscenza. Non solo perché archivia, ma perché definisce relazioni, criteri, responsabilità. Le piattaforme chiuse e gerarchiche producono oligarchie cognitive: pochi decidono, tutti eseguono. I sistemi aperti e tracciabili – come Git o Confluence – permettono invece una circolazione dinamica delle idee, una gestione evolutiva del sapere.

Anche gli LLM entrano in questa infrastruttura. Non sono soggetti, ma strumenti. Non pensano, ma permettono di estendere le nostre capacità linguistiche, se usati correttamente. E qui occorre essere chiari: il fatto che un LLM generi testi coerenti non significa che capisca. Non è in grado di attribuire significato, né di giustificare ciò che produce. Siamo noi a doverlo fare. Noi a dover progettare filtri, verifiche, limiti. Noi a dover decidere.

Progettare l’uso degli LLM richiede almeno tre livelli di attenzione. Il primo è tecnico: quali compiti affidiamo al modello, con quali strumenti di controllo? Il secondo è concettuale: come interpretiamo l’output? Come distinguiamo plausibilità da verità, coerenza da correttezza? Il terzo è istituzionale: chi risponde delle decisioni basate sull’uso dell’IA? Come documentiamo processi e responsabilità?

Nel suo libro La mente allargata (Codice Edizioni, 2023), Riccardo Manzotti scrive:

«Così la coscienza umana è diventata un mistero inafferrabile, un fenomeno interiore e soggettivo, e la natura un dato esteriore ed estraneo […] Manzotti rifiuta questa frattura e ci invita a cambiare prospettiva, a ripensare la relazione tra mente e realtà in termini di identità e corrispondenza […] La nostra percezione è un dato concreto, materiale; coscienza e mondo, infine, coincidono».

È un messaggio potente, che supera la distanza tra soggetto e oggetto, tra uomo e mondo. Ma proprio per questo, dobbiamo essere ancora più attenti a non scambiare le correlazioni statistiche per coscienza. Un modello linguistico non ha corpo, non ha ambiente, non ha intenzionalità. È parte di un sistema più ampio, sì, ma non è il sistema. Tocca a noi – esseri situati, vulnerabili, responsabili – decidere come usarlo, quando, e per quali scopi.

L’innovazione non è rinunciare al pensiero. È progettare l’uso degli strumenti affinché estendano la nostra capacità di capire, non la sostituiscano con una parvenza di coerenza. È questo, forse, il vero antidoto al nuovo Don Ferrante: non negare l’intelligenza artificiale, ma imparare a trattarla per ciò che è. Un mezzo. Non un fine. Un aiuto. Non una coscienza. Un potente acceleratore di linguaggio. Ma il senso, come sempre, lo decidiamo noi.


StultiferaBiblio

Pubblicato il 07 agosto 2025

Calogero (Kàlos) Bonasia

Calogero (Kàlos) Bonasia / omnia mea mecum porto