Parte 1) L’idea di ragionamento nella tradizione filosofica: qui.
Parte 2) Reasoning Model: un termine da interpretare: qui.
Parte 3) Una recitazione impeccabile ma piatta: qui.
Una recitazione impeccabile ma piatta
Le recenti ricerche riepilogate qui, dimostrano dunque che i LLM (Large Language Model) replicano strutture logiche apprese, senza comprendere realmente ciò che producono. Queste strutture sono poi esportabili, con relativa facilità, a modelli di più piccole dimensioni e riproducibili a basso costo.
La scoperta forse più inquietante è che i modelli si mostrano sufficientemente robusti rispetto agli errori nei contenuti (allucinazioni a parte), ma estremamente fragili rispetto alla struttura logica. Dietro l’apparenza di un “monologo interiore” dei modelli (Nello Cristianini), si nasconde una realtà più prosaica: la qualità del ragionamento non deriva dalla correttezza delle singole affermazioni, quanto dalla capacità di mantenere l’apparenza di un cammino logico coerente.
In altre parole, i modelli seguono le tracce delle soluzioni viste nei dati di addestramento, senza afferrarne il senso. Recitano una parte come un attore impeccabile replica la postura e i movimenti indicati dal copione, senza comprendere il senso profondo della storia e quindi senza una interpretazione artistica convincente.
Questa metafora è stata suggerita dall’AI stessa sulla base delle informazioni fin qui riepilogate, e io l’ho poi aggiustata definendo meglio il significato allegorico. Poi ho chiesto all’AI (prima a Claude, più politically correct, e poi al mio agente basato su ChatGPT che ormai mi conosce bene) di scrivere una recensione su uno spettacolo nel quale il protagonista ha recitato in modo piatto. Leggetele immagunando che siano riferite all’AI stessa, e confrontate il percepito qui e quando sospettate che un output sia generato dall’AI.
[Claude]
La sua performance risulta sorprendentemente priva di vita, come se avesse deciso di interpretare il personaggio con un approccio puramente meccanico. Ogni battuta viene pronunciata con precisione matematica, ogni movimento eseguito con tecnica impeccabile, ma questa perfezione formale si traduce paradossalmente in una totale assenza di autenticità. Lo spettatore assiste a una recitazione tecnicamente corretta ma emotivamente arida, dove la fedeltà ossessiva al copione ha sacrificato qualsiasi traccia di spontaneità. Ne emerge un personaggio bidimensionale che, nonostante l’indiscutibile professionalità dell’interprete, non riesce mai a varcare quella sottile ma cruciale linea che separa l’esecuzione dall’incarnazione.
[ChatGPT]
Con una meticolosità da notaio e la passione di un compilatore di moduli, l’attore in questione affronta il suo ruolo come se recitasse un esercizio di dizione più che un’esperienza umana. La sua interpretazione si inchina fedelmente al copione, ma senza mai sporcarlo di vita vissuta. Ogni battuta risuona perfetta nella forma e tragicamente vuota nel sentimento, come un’orchestra che suona spartiti impeccabili senza mai emettere una sola vibrazione d’anima. Il risultato? Uno spettacolo che ci mostra tutto e ci fa sentire nulla. Una prestazione tecnicamente corretta, ma emotivamente assente, che lascia lo spettatore prigioniero di un gelido esercizio stilistico.
Se riprendiamo Wittgenstein e intendiamo il ragionamento come un gioco linguistico, allora possiamo leggere le prestazioni dei LLM sotto un’altra luce. I LLM partecipano a un gioco di concatenazione linguistica, ma senza una vera forma di vita che ne sorregga l’uso: riproducono strutture apprese, replicano mosse viste in fase di pre-training, senza partecipare al tessuto sociale che conferisce significato autentico ai giochi linguistici umani. Il loro ragionare non è altro che una sequenza di gesti linguistici mimetici, svuotati di ancoraggio esperienziale.
I LLM non partecipano attivamente ai giochi linguistici nel senso pieno indicato da Wittgenstein. Non pregano, non ringraziano, non raccontano, non comandano…, perché non condividono né i bisogni, né le pratiche, né gli orizzonti di senso che fanno di questi atti qualcosa di più di una concatenazione di segni. Osservano le tracce del gioco linguistico, ma non partecipando al movimento interno, non risuonano, non lo sperimentano, non lo rinnovano, non rilanciano il senso in risposte vive al contesto.
Un gioco di specchi
Negli umani, invece, ogni atto linguistico si intreccia con un vissuto corporeo e relazionale. I neuroni a specchio, ad esempio, attivano nel soggetto che osserva la stessa disposizione motoria o emotiva di chi agisce o parla. Questi neuroni sono considerati fondamentali per l’intersoggettività umana e l’empatia, perché creano una forma di risonanza diretta, corporea, che precede e sostiene la comprensione cognitiva.
Questa risonanza incarnata permette di riconoscere non solo le forme esteriori di un’azione o di una parola, ma il loro significato interno, vissuto, situato. Sono proprio quegli aspetti della “forma di vita” che, secondo Wittgenstein, danno significato autentico al linguaggio. Anzi, alcuni studiosi, tra i quali lo stesso Giacomo Rizzolatti che ne è lo scopritore, ipotizzano un ruolo dei neuroni specchio nell’evoluzione del linguaggio umano, suggerendo un legame biologico tra l’imitazione, la comprensione dell’altro e lo sviluppo linguistico.
Tuttavia, nel dialogo con un essere umano, i LLM possono diventare uno specchio linguistico attraverso cui l’interlocutore umano riflette, esplora, prolunga il proprio gioco. Laddove il modello replica strutture apprese senza comprenderne il significato, è l’umano, innestando il suo vissuto, a rianimare il linguaggio, a riempirlo di intenzione e di senso.
In fondo, anche nei dialoghi tra esseri umani, non sempre entrambi i partecipanti contribuiscono in modo simmetrico o autentico al gioco linguistico. Molte conversazioni quotidiane seguono script prevedibili, con livelli variabili di coinvolgimento autentico. Pensiamo ai saluti formali, alle conversazioni di circostanza o alle interazioni di servizio: non sempre mettiamo in gioco il nostro intero vissuto in ogni scambio linguistico.
Wittgenstein stesso riconosceva la varietà dei giochi linguistici e il fatto che alcuni sono più rituali e formali, mentre altri più profondi e trasformativi. Può bastare che uno solo porti dentro la vitalità della propria esperienza perché il gioco prosegua, si trasformi, si rinnovi. Perfino le conversazioni di circostanza, il gergo tecnico o gli small talk possono attivare giochi linguistici in cui il messaggio è la ricercata assenza di coinvolgimento emotivo, la presenza neutra o la sola disponibilità ad un contatto.
AI come sparring partner
In questa prospettiva, i LLM potrebbero collocarsi in un continuum di partecipazione al gioco linguistico, piuttosto che in una posizione di totale estraneità. Possono essere usati come superficie (a specchio) su cui l’umano continua a giocare.
Per certi aspetti, costituiscono una preziosa opportunità: la neutralità che deriva dalla loro mancanza di forme di vita, li rende utili nell’analizzare i giochi linguistici degli umani, senza introdurre i bias che deriverebbero da loro autonome preferenze, intenzioni e obiettivi. Potrebbero risultare perfetti sparring partner per i giochi linguistici degli umani, rendendo chiara la distinzione tra i rispettivi campi d’azione.
Possono quindi facilitare nuove traiettorie di pensiero e nuove costruzioni narrative elaborate dall’umano, che resta attore protagonista insostituibile.
Conclusione
Dijkstra ci invita a non fermarci alla domanda sterile se un computer possa pensare, ma a entrare nel processo concreto con cui elabora le informazioni. Oggi, con l’emergere dei Large Language Models (LLM) dotati di capacità di ragionamento, questa intuizione si rivela più attuale che mai. I modelli contemporanei non “pensano” come esseri umani: esibiscono catene di inferenze, imitano logiche deduttive, assemblano passi intermedi, ma lo fanno in modo puramente statistico, privo di consapevolezza e di esperienza vissuta.
Wittgenstein ha evidenziato il legame profondo tra pensiero, linguaggio e forme di vita, sottolineando come il significato emerga dall’uso concreto del linguaggio all’interno di pratiche condivise. I LLM, essendo privi di corporalità ed esperienza sociale, non sono dunque in grado di partecipare a questo gioco in modo autentico, e di conseguenza non possono sviluppare un vero ragionamento autonomo.
Lo stato dell’arte della ricerca scientifica conferma che ancora oggi i LLM, pur essendo ormai di dimensioni ciclopiche, si limitano ad eseguire catene di inferenze e simulare processi deduttivi, ma lo fanno tramite aggregazioni statistiche di percorsi appresi, senza autentica comprensione o coerenza concettuale autonoma. Siamo in grado di trasferire facilmente questa capacità a modelli più piccoli, facilitandone la diffusione, ma questa resta più dipendente dalle strutture logiche apprese, che dal contenuto specifico: il rimescolamento o la cancellazione dei passaggi logici causano un degrado delle prestazioni. Questo conferma l’impossibilità da parte dei LLM di giocare al gioco linguistico della vita.
Il rischio, allora, non è che le macchine diventino più umane, ma che noi si finisca per adattarsi a una forma di linguaggio priva di radici nella vita reale, perdendo dimestichezza con il pensiero critico, l’ascolto, l’interpretazione.
Eppure, anche un gioco linguistico “vuoto” può essere rianimato se l’umano, interagendo, reintroduce intenzione, contesto, significato. Pur non partecipando pienamente ai nostri giochi di linguaggio, i LLM possono comunque agire come superfici riflettenti. Ricordiamo infatti l’importanza dei neuroni a specchio per la nostra vita sociale, lo sviluppo del linguaggio e delle abilità cognitive. Possiamo allora riconoscere che anche un semplice riflesso neutro (sul piano linguistico e grafico, non corporeo) può contribuire ad attivare processi cognitivi e ad allenare l’umano che vi interagisce, stimolandone l’attenzione, la capacità di discernimento e il pensiero critico.
In definitiva, più che chiederci se le macchine “nuotino”, dovremmo preoccuparci innanzi tutto se noi siamo ancora capaci di nuotare nelle acque agitate dei giochi linguistici autentici, e poi, se i modelli siano adatti come piscina per gli allenamenti, o come allenatori di nuoto, e noi pronti ad usarli in questo modo.
Fonti
- Tractatus logico-philosophicus. Con i Quaderni 1914–1916, Ludwig Wittgenstein, (2020) — Einaudi
- La scoperta scientifica e il carattere autocorrettivo della scienza, Karl Popper, (2020) — Einaudi
- Pensieri lenti e veloci, Daniel Kahneman, (2020) — Mondadori
- The Case for Human-AI Interaction as System 0 Thinking, Massimo Chiriatti et al., (2024) — Nature Human Behaviour
- Chain of Thought Prompting Elicits Reasoning in Large Language Models, Jason Wei et al., (2022) — arXiv
- Oltre i limiti della nostra intelligenza, Nello Cristianini, (2025) — Il Mulino
- AI “responsabile”: le quattro aree chiave per un futuro sicuro, Carmelina Maurizio, (2024) — Agenda Digitale