Go down

Lo stato dell’arte della ricerca scientifica conferma che ancora oggi i LLM, pur essendo ormai di dimensioni ciclopiche, si limitano ad eseguire catene di inferenze e simulare processi deduttivi, ma lo fanno tramite aggregazioni statistiche di percorsi appresi, senza autentica comprensione o coerenza concettuale autonoma. Siamo in grado di trasferire facilmente questa capacità a modelli più piccoli, facilitandone la diffusione, ma questa resta più dipendente dalle strutture logiche apprese, che dal contenuto specifico: il rimescolamento o la cancellazione dei passaggi logici causano un degrado delle prestazioni. Questo conferma l’impossibilità da parte dei LLM di giocare al gioco linguistico della vita. Il rischio, allora, non è che le macchine diventino più umane, ma che noi si finisca per adattarsi a una forma di linguaggio priva di radici nella vita reale, perdendo dimestichezza con il pensiero critico, l’ascolto, l’interpretazione.

Parte 1) L’idea di ragionamento nella tradizione filosofica: qui.

Parte 2) Reasoning Model: un termine da interpretare: qui.

Parte 3) Una recitazione impeccabile ma piatta: qui.


Edsger Wybe Dijkstra è stato un grandissimo informatico olandese, uno dei padri dell’informatica moderna. È celebre per i suoi contributi alla programmazione strutturata, agli algoritmi (come il famoso algoritmo di Dijkstra per trovare il percorso più breve in un grafo), e più in generale alla teoria della computazione. Insomma, non era uno qualunque che si svegliava la mattina a parlare di computer.

chiedersi se un computer “pensa” è una domanda mal posta

Dijkstra, che non era solo un genio, ma anche una vera leggenda vivente, famosa per lo stile provocatorio e acuto, diceva:

“La domanda se un computer possa pensare non è più interessante della domanda se un sottomarino possa nuotare”

Intendeva dire che chiedersi se un computer “pensa” è una domanda mal posta, un po’ come chiedersi se un sottomarino “nuota”. Un sottomarino si muove nell’acqua, certo, ma non nuota come un pesce. Allo stesso modo, un computer può risolvere problemi, eseguire istruzioni, prendere decisioni, ma non “pensa” come un essere umano. Usa altri meccanismi, segue altre logiche. In sostanza, il suo messaggio era: non fissiamoci su analogie fuorvianti. È più utile studiare cosa fa un computer e come lo fa piuttosto che tentare di appiccicargli caratteristiche umane.

Questa sua idea si collega a una linea di pensiero scientifica molto rigorosa che poi ha trovato eco nei lavori di Alan Turing e, più recentemente, nei dibattiti sull’intelligenza artificiale. Non ha senso chiedersi se le macchine “pensano” perché il termine “pensare” non è sufficientemente rigoroso per una domanda scientifica. Ha senso osservare se comportandosi in certi modi riescono a ottenere risultati paragonabili a quelli umani. Per questo motivo il famoso Test di Turing è basato sull’idea pratica di valutare se una macchina possa comportarsi in modo indistinguibile da un essere umano in un’interazione linguistica.

L’idea di ragionamento nella tradizione filosofica

Nei suoi Quaderni e nel Tractatus logico-philosophicus, Wittgenstein descrive il “pensare” come una pratica radicata in regole linguistiche condivise: il ragionamento non sarebbe altro che un “gioco linguistico”, interno a una “forma di vita”. Wittgenstein rompe con l’idea che il linguaggio sia un sistema astratto o ideale, un’essenza unica.

Così, il linguaggio è fatto di tanti giochi diversi quante le attività concrete della vita (forme di vita): chiedere, comandare, raccontare una storia, fare una battuta, pregare, ringraziare, … Ogni gioco ha regole proprie, apprese vivendo nella comunità, e non c’è una “natura comune” che tutti i giochi devono rispettare. Il significato delle parole dipende dall’uso che ne facciamo nei contesti pratici e condivisi. Cambiando la forma di vita, cambierebbero anche i giochi linguistici e quindi il significato stesso delle parole. Il linguaggio non fotografa semplicemente la realtà: è la nostra realtà sociale, il tessuto che lega insieme vita e pensiero.

Il ragionamento non è quindi una condizione mentale stabile, ma una serie di atti o gesti linguistici, ovvero modi di concatenare proposizioni. È un’attività che richiede un contesto, un obiettivo, e la disponibilità a correggersi lungo il percorso. Dunque, non una deduzione astratta, ma un’attività situata.

Ragionamento come gioco linguistico

Nei suoi Quaderni e nel Tractatus logico-philosophicus, Wittgenstein descrive il “pensare” come una pratica radicata in regole linguistiche condivise: il ragionamento non sarebbe altro che un “gioco linguistico”, interno a una “forma di vita”. Wittgenstein rompe con l’idea che il linguaggio sia un sistema astratto o ideale, un’essenza unica.

Così, il linguaggio è fatto di tanti giochi diversi quante le attività concrete della vita (forme di vita): chiedere, comandare, raccontare una storia, fare una battuta, pregare, ringraziare, … Ogni gioco ha regole proprie, apprese vivendo nella comunità, e non c’è una “natura comune” che tutti i giochi devono rispettare. Il significato delle parole dipende dall’uso che ne facciamo nei contesti pratici e condivisi. Cambiando la forma di vita, cambierebbero anche i giochi linguistici e quindi il significato stesso delle parole. Il linguaggio non fotografa semplicemente la realtà: è la nostra realtà sociale, il tessuto che lega insieme vita e pensiero.

Il ragionamento non è quindi una condizione mentale stabile, ma una serie di atti o gesti linguistici, ovvero modi di concatenare proposizioni. È un’attività che richiede un contesto, un obiettivo, e la disponibilità a correggersi lungo il percorso. Dunque, non una deduzione astratta, ma un’attività situata.

L’intelligenza artificiale e i giochi linguistici

Secondo questa linea di pensiero, può l’intelligenza artificiale, priva di una forma di vita propria, partecipare pienamente ai giochi linguistici umani? No, almeno non in senso stretto. Non possedendo bisogni, desideri o esperienza vissuta, l’IA resta esterna alla dimensione sociale che dà senso autentico al linguaggio.

Tuttavia l’AI è capace di imitare e alimentare alcune dinamiche linguistiche, e tutti noi ce ne siamo resi conto con stupore. Attraverso l’apprendimento statistico sui dati prodotti dagli umani, è in grado di simulare atti linguistici e di mantenere attivo il flusso conversazionale. Il suo contributo, pur privo di comprensione profonda, è reale sul piano degli effetti: nuove formulazioni, variazioni stilistiche, combinazioni espressive possono arricchire il gioco linguistico umano, ampliandone le possibilità formali.

L’arricchimento ottenuto grazie all’AI, però, riguarda principalmente l’aspetto tecnico ed espressivo, non la costruzione condivisa di nuovi significati. L’interazione con l’IA può stimolare la creatività linguistica dell’umano, ma non sostituire quella trama invisibile di esperienze, bisogni e relazioni da cui, per Wittgenstein, ogni linguaggio autentico trae la sua forza.

E qui si prospetta il rischio da parte nostra di accettare troppo facilmente, nel nostro linguaggio, contributi privi di forma di vita. Nel tempo, rischiamo di perdere contatto con la sua stessa origine: quella pratica, imperfetta e spesso ostica, che richiede e allena doti di ascolto, attenzione e interpretazione. In definitiva, il rischio di impoverire le nostre capacità di linguaggio e ragionamento.

Popper, Chomsky, Kahneman

Nel dibattito contemporaneo, altri filosofi hanno aiutato a chiarire la natura del ragionamento e il suo possibile rapporto con modelli artificiali. Karl Popper ha sottolineato che il cuore del pensiero razionale non sta nella conferma delle ipotesi, ma nella capacità di falsificarle: “la scienza avanza eliminando errori” (The Logic of Scientific Discovery, 1934). Questo modello di pensiero per tentativi ed errori ha ispirato approcci evolutivi e algoritmi adattivi, suggerendo che, almeno in linea di principio, dinamiche simili potrebbero essere simulate anche da sistemi non umani.

Noam Chomsky ha introdotto l’idea che il linguaggio — e più in generale alcune forme di ragionamento — derivino da capacità innate della mente umana, una “grammatica universale” delle strutture cognitive (Aspects of the Theory of Syntax, 1965). In vari interventi recenti, Chomsky ha espresso scetticismo verso le pretese dell’AI attuale, ricordando che “le reti neurali non ‘pensano’: associano pattern senza comprensione” (da un’intervista a The New York Times, 2023). La sua posizione solleva interrogativi profondi sulla possibilità e sui limiti di replicare artificialmente capacità cognitive radicate biologicamente.

Daniel Kahneman, distinguendo tra il Sistema 1 (rapido, intuitivo, associativo) e il Sistema 2 (lento, analitico, deliberativo), in Thinking, Fast and Slow (2011), ha mostrato che il vero ragionamento richiede tempo, controllo e capacità di seguire passi intermedi consapevoli. Questa distinzione ha fornito un paradigma chiave anche per la ricerca sulla capacità di ragionamento dell’Intelligenza Artificiale.

Non è sufficiente che i modelli linguistici producano risposte fluenti ed immediate (assimilabili al Sistema 1), in tempi rapidissimi, per poterli confrontare col ragionamento umano. Devono anche simulare processi di ragionamento più articolati, capaci di procedere per passaggi successivi, formulare ipotesi intermedie, correggersi lungo il percorso, e quindi inevitabilmente più lenti. Ma cosa significa simulare un Sistema 2 con un modello per il quale già il Sistema 1 è solo una simulazione?

Le macchine e l’introduzione del Sistema 0

Una linea di sviluppo importante è stata quella del Chain of Thought prompting (Wei et al., 2022), che invita i modelli a “pensare passo dopo passo” prima di arrivare a una conclusione. Sebbene il modello non possieda coscienza o comprensione interna — e dunque non si possa parlare di vera “consapevolezza” — la produzione esplicita di una catena di inferenze rende il processo più simile, nella struttura esterna, al ragionamento deliberativo umano descritto da Kahneman.

I modelli di ultima generazione, detti appunto “reasoning model”, hanno cominciato ad applicare questo approccio step by step anche quando non esplicitamente richiesto nel prompt. In questi casi, l’elaborazione della risposta avviene in due fasi, iniziando con la scomposizione del problema posto e la ricerca del percorso più adatto per raccogliere gli elementi utili alla soluzione, per poi comporli nella seconda, generando la risposta vera e propria.

Anche se la prima fase consiste in attività ad uso interno al processo, il modello la rende visibile con messaggi preliminari che ne illustrano i passaggi, aumentando la trasparenza e la spiegabilità, e facendo sfoggio dell’innovativa e sorprendente capacità di ragionamento.

Proprio per comprendere i limiti di questa simulazione, Massimo Chiriatti ha proposto il concetto di Sistema 0 (The case for human–AI interaction as System 0 thinking, 2024). Nell’articolo viene così descritto il funzionamento cognitivo delle macchine: un processo puramente associativo e statistico, privo di consapevolezza, emozioni, o esperienza vissuta. Se il Sistema 1 umano è intuitivo e il Sistema 2 è deliberativo, entrambi restano radicati nella biologia e nell’esperienza; il Sistema 0 invece opera su un piano diverso, non biologico, fondato su associazioni numeriche “cieche”.

Chiriatti interpreta il Sistema 0 come un’estensione moderna della mente umana, non più costruita su strumenti semplici come taccuini o appunti, ma basata su sistemi AI capaci di elaborare dati, suggerire inferenze e proporre decisioni. L’AI non è dunque solo uno strumento passivo, ma diventa parte attiva del nostro processo cognitivo, pur senza alcuna forma di coscienza. Questa estensione non è neutrale: solleva questioni etiche, epistemologiche e cognitive, tra cui il rischio di perdita di autonomia critica e il pericolo di sviluppare forme di “bias di automazione”. Mi sono chiesto se l’indice 0 sia veramente appropriato, essendo basato logicamente sul Sistema 1, anche se in grado di condizionarlo.

Quando cerchiamo di simulare il ragionamento lento e analitico (Sistema 2) sopra una base puramente statistica (Sistema 0), otteniamo dinamiche che possono apparire articolate, ma che restano prive della comprensione reale che accompagna il pensiero umano. È su questo scarto profondo — tra simulazione formale e esperienza vissuta — che radicano le grandi questioni attuali e le sfide future relative all’intelligenza artificiale.

Segue qui.

Fonti

  1. Tractatus logico-philosophicus. Con i Quaderni 1914–1916, Ludwig Wittgenstein, (2020) — Einaudi
  2. La scoperta scientifica e il carattere autocorrettivo della scienza, Karl Popper, (2020) — Einaudi
  3. Pensieri lenti e veloci, Daniel Kahneman, (2020) — Mondadori
  4. The Case for Human-AI Interaction as System 0 Thinking, Massimo Chiriatti et al., (2024) — Nature Human Behaviour
  5. Chain of Thought Prompting Elicits Reasoning in Large Language Models, Jason Wei et al., (2022) — arXiv
  6. Oltre i limiti della nostra intelligenza, Nello Cristianini, (2025) — Il Mulino
  7. AI “responsabile”: le quattro aree chiave per un futuro sicuro, Carmelina Maurizio, (2024) — Agenda Digitale

Pubblicato il 14 aprile 2025

Gino Tocchetti

Gino Tocchetti / Driving Innovation and New Ventures @ Corporate Startup Ecosystem

gino.tocchetti@gmail.com http://www.ginotocchetti.medium.com/