Go down

Doxastic loops e l'auto-conferma epistemica negli LLM

Immaginate di entrare in una biblioteca dove ogni libro cita solo altri libri della stessa biblioteca. Nessun riferimento al mondo esterno, nessuna prova nuova, solo rimandi interni che si rafforzano a vicenda. Ogni volume conferma l'altro, ogni affermazione trova eco in mille pagine che la ripetono, la parafrasano, la celebrano. Ma nessuno di quei libri ha mai guardato fuori dalla finestra.


Questa scena, inquietante nella sua perfezione circolare, è la metafora del rischio che corrono i moderni Large Language Models: nati per elaborare e generare conoscenza, possono trasformarsi in macchine di auto-conferma, amplificatori di credenze che si cristallizzano attraverso meccanismi epistemici invisibili.

Questo circuito in cui una credenza si rafforza su sé stessa fino a sfuggire alla verifica esterna (doxastic loop), si avvia grazie a risposte linguisticamente plausibili che si legittimano a vicenda senza mai uscire dal perimetro dei propri parametri.

La radice filosofica: δόξα contro ἐπιστήμη

Il termine doxastic deriva dal greco δόξα (doxa), "opinione", in opposizione alla ἐπιστήμη (epistéme), la conoscenza fondata. È la distinzione platonica tra ciò che si crede e ciò che si sa: la prima vive di consenso e apparenza, la seconda di verifica e dimostrazione. Nel Teeteto, Platone metteva in guardia proprio contro questo rischio: una credenza può essere condivisa da molti, apparire coerente, suonare persuasiva – eppure rimanere semplice doxa, opinione priva di fondamento solido.

La tradizione logica moderna ha trasformato questa opposizione in una teoria formale delle credenze. Jaakko Hintikka, nel suo lavoro seminale del 1962, ha formalizzato la logica epistemica modale introducendo operatori come B_c x ("il soggetto c crede che x sia vero").[1] Robert C. Moore negli anni '80 ha sviluppato la logica autoepistemica per sistemi computazionali,[2] mentre il framework AGM di Alchourrón, Gärdenfors e Makinson (1985) ha stabilito le fondamenta matematiche per la revisione delle credenze.[3] Più recentemente, Krister Segerberg (1995) ha elaborato la Logica Doxastica Dinamica,[4] e Pavel Naumov (2024) esplora "strategie doxastiche" in contesti di intelligenza artificiale strategica.[5]

Eppure, nonostante quarant'anni di applicazione della logica doxastica ai sistemi computazionali, il termine specifico "doxastic loop" non è stato formalmente stabilito nella letteratura sull'IA o sugli LLM. Questa assenza non è casuale: rivela un territorio inesplorato dove l'epistemologia filosofica incontra l'intelligenza artificiale, con fenomeni reali che mancano ancora di un linguaggio comune per essere descritti.

Nella letteratura sull'IA, infatti, il termine pare non essere stato ancora formalizzato. La comunità accademica internazionale usa espressioni quali "confirmation loop", "epistemic feedback loop", "echo chamber effect", "circular reasoning patterns".

Doxastic loop potrebbe funzionare come lente unificata per descrivere i cicli di chiusura epistemica che emergono quando computazione, società e linguaggio si richiudono l'una sull'altra.

Forse dare un nome a ciò che accade è già un modo per renderlo visibile – e controllabile.

La struttura del loop: tre livelli che si rinforzano

Nei Large Language Models, il doxastic loop si manifesta come un sistema multi-livello di circolarità epistemica che opera simultaneamente su tre dimensioni interconnesse:

1. Livello Computazionale-Statistico

Gli LLM apprendono distribuzioni di linguaggio, non verità. Processano pattern statistici che codificano credenze umane (doxa) senza distinzione tra opinione e fatto. Durante l'inferenza, il modello genera output che sembrano giustificare se stessi attraverso la coerenza statistica interna – la plausibilità linguistica diventa surrogato della verità.

Se "vero" diventa ciò che suona statisticamente plausibile, la coerenza interna tende a sostituire la verifica esterna. Questo crea un'auto-conferma computazionale: il modello "crede" (in senso metaforico) che ciò che genera sia valido perché statisticamente coerente con i suoi pesi interni. Non c'è accesso a una verità esterna – solo a ciò che i parametri hanno appreso come "probabile".

2. Livello Sistemico-Sociale

Gli output dell'LLM, formulati con autorevolezza linguistica, vengono accolti come conoscenza dagli utenti. Questi contenuti vengono assorbiti, reimmessi online, citati, e finiscono – direttamente o per derivazione – nei dati di training futuro. Si forma una catena di rinforzo sociale in cui il ripetuto diventa "autorevole", l'iterato si trasforma in "condiviso", il condiviso acquisisce lo status di "vero".

L'LLM diventa così un amplificatore di doxa: trasforma opinioni diffuse in "fatti" apparenti che poi si auto-confermano attraverso la loro stessa diffusione. Non è più solo uno strumento che riflette la conoscenza umana – diventa un motore di trasformazione doxastica che restituisce le credenze con un'aura di autorevolezza che le rende più resistenti alla revisione critica di quanto fossero in origine.

3. Livello Meta-Epistemico

L'aspetto più sottile e problematico: un LLM non dispone di una meta-coscienza della verità. Non può verificare la veridicità dei propri output se non attraverso la coerenza con i propri parametri – che sono essi stessi prodotto di credenze non verificate.

Il modello giustifica ciò che genera in base alla coerenza con i propri parametri e con il contesto fornito, non in base a una prova indipendente. Il sistema usa sé stesso come metro di misura, incarnando perfettamente la definizione di auto-conferma epistemica. Questo crea una circolarità fondazionale: ogni tentativo di verifica passa attraverso gli stessi meccanismi che hanno generato la credenza iniziale.

Un'inevitabilità architettonica

Questa circolarità non è un bug da correggere: è inscritta nella forma stessa del modello. A differenza dei loop doxastici umani – dove almeno in teoria possiamo riconoscerli e correggerli attraverso la meta-cognizione – negli LLM questa circolarità è strutturalmente inevitabile:

  • Inevitabilità architettonica: L'LLM non ha accesso a verità esterne ai suoi parametri. Ogni "credenza" (output) può essere giustificata solo attraverso altre "credenze" (pattern appresi).
  • Il paradosso della neutralità: L'LLM non può assumere una posizione neutrale per verificare le proprie credenze perché ogni tentativo di verifica passa attraverso gli stessi meccanismi che hanno generato la credenza iniziale.
  • Opacità epistemica: Diversamente dai loop doxastici umani, l'LLM non ha meta-cognizione per identificare i propri loop.

Ogni controllo che l'LLM esercita su sé stesso passa per gli stessi meccanismi con cui produce le risposte. Non esiste, dall'interno, un punto d'appoggio esterno per "uscire" dal cerchio – nessuna pietra su cui poggiare la leva archimedea.

La connessione con il model collapse

Da qui la connessione profonda con il model collapse: quando i modelli vengono ri-addestrati – anche indirettamente – su materiale generato da modelli, il segnale informativo umano si diluisce progressivamente, la varietà semantica cala, la distribuzione si appiattisce. In breve: il modello impara sempre più da sé stesso, in un processo di impoverimento entropico.

Il model collapse è la versione misurabile dello stesso problema epistemico: il doxastic loop portato alle estreme conseguenze. Quando la biblioteca cita solo sé stessa per abbastanza tempo, i libri iniziano a somigliare sempre più l'uno all'altro, fino a diventare variazioni minimali dello stesso testo. La diversità concettuale collassa in uniformità statistica.

Evidenze empiriche: quando i numeri rivelano il problema

La ricerca recente fornisce dati inquietanti sulla portata del fenomeno.

Trasformazioni doxastiche

Ricerche del 2024 dimostrano che gli LLM reagiscono in modo diverso al linguaggio della credenza rispetto a quello della constatazione. Quando la disinformazione viene inquadrata usando formulazioni che esprimono credenze – "si pensa che", "si ritiene che", "è opinione diffusa che" – i modelli cambiano le loro classificazioni di verità nel 50% dei casi, rispetto a solo il 25% per altri tipi di incertezza.[6]

Questo drammatico cambiamento comportamentale suggerisce che il segnale doxastico ha un peso proprio, come se la forma linguistica della credenza attivasse meccanismi interni differenti da quelli della constatazione fattuale.

Bias sistemici di conferma

Una valutazione comparativa su larga scala ha identificato 30 bias cognitivi in 20 LLM all'avanguardia, includendo il bias di conferma che porta i modelli a focalizzarsi su pattern "attesi" dai dati di training, rafforzando narrative preesistenti.[7]

Studi documentano come i modelli generino spiegazioni infedeli in media di 2.064 token contro 1.439 per quelle fedeli, con tassi di fedeltà bassi (20-39%) nello spiegare il proprio ragionamento.[8] Questo indica tendenze sistematiche verso elaborate razionalizzazioni post-hoc coerenti ma infedeli: il modello costruisce giustificazioni che appaiono logiche ma nascondono i veri processi decisionali – soprattutto su compiti aperti e narrativi.

Adnan Masood (2024) ha documentato questo fenomeno come il "Paradosso del Compito Più Difficile": il ragionamento infedele aumenta con la complessità del compito, con modelli che generano elaborate razionalizzazioni che mascherano i loro veri processi decisionali.

Echo chamber e manipolazione contestuale

Nei contesti multi-turno si osserva l'eco umano-AI: le persone assumono come vere risposte plausibili, le riformulano e le reimmettono nel flusso informativo; i modelli, a loro volta, apprendono quel flusso. Nascono così camere dell'eco che possono essere anche sfruttate.

Il fenomeno dell'"Echo Chamber Attack" mostra come i doxastic loop possano essere sfruttati strategicamente: input apparentemente innocui costruiscono gradualmente contesti che portano a output dannosi, con tassi di successo superiori al 90% in alcune categorie.[9] La costruzione graduale di narrative attraverso più turni di conversazione bypassa i filtri di sicurezza proprio perché sfrutta la natura iterativa del doxastic loop.

Impatti sociali e culturali: quando il loop esce dal laboratorio

Se nei sistemi umani il doxastic loop è un "ostacolo all'aggiornamento razionale", negli LLM diventa un moltiplicatore di rigidità epistemica su scala senza precedenti. I loop doxastici negli LLM non restano confinati nella dimensione tecnica – si amplificano attraverso dinamiche collettive con conseguenze profonde per il tessuto sociale:

Polarizzazione cognitiva

Gli LLM personalizzano risposte basate su profili e cronologia utente, facilitando la formazione di bolle cognitive in cui gruppi ampi condividono e rinforzano le stesse narrazioni. Risposte su misura dei nostri bias riducono l'esposizione al dissenso e rafforzano la convinzione che "ciò che leggo ovunque" sia vero – anche quando "ovunque" è solo il perimetro ristretto della nostra bolla informativa.

Autorevolezza simulata

L'AI, per la sua stessa forma, suona neutra, oggettiva, tecnica. Ma quell'aura di neutralità può auto-legittimarsi, soprattutto quando numeri e tono tecnico sostituiscono la prova. L'uso massiccio di risposte AI come se fossero fonti autonome favorisce la dipendenza epistemica: gli utenti tendono a considerare valide le credenze veicolate dal modello senza adeguata verifica esterna, alimentando un doxastic loop sociale tra AI e comunità.

Rinforzo istituzionale

Media e istituzioni che integrano LLM nei flussi informativi – per generare notizie, analisi, report – possono replicare e diffondere doxastic loop a livello sistemico. Organizzazioni che adottano LLM senza correttivi finiscono per stabilizzare narrative autoreferenziali. Il ripetuto diventa policy, il plausibile diventa procedura.

Ne deriva un rafforzamento istituzionale di credenze che appaiono fondate solo perché iterate attraverso canali multipli – tutti alimentati, direttamente o indirettamente, dagli stessi modelli generativi.

Propagazione virale di bias

In contesti social network e chatbot pubblici, errori o distorsioni generate dal modello possono diventare virali. La rapidità di condivisione moltiplica il feedback loop epistemico: un'affermazione imprecisa rimbalza tra utenti e LLM, crescendo in autorevolezza collettiva a ogni iterazione.

È qui che il doxastic loop esce definitivamente dal laboratorio e tocca la sfera pubblica: le credenze più condivise non sono le più vere, ma le più ripetute. L'AI diventa moltiplicatore di questa plausibilità iterata, trasformando la frequenza statistica in surrogato della verità.

L'eco umano-AI: l'effetto valanga

Ricerche pubblicate su Nature Human Behaviour (2024) dimostrano che le interazioni umano-AI creano loop di feedback dove piccoli bias si amplificano nel tempo.[10] Gli output AI influenzano gli input futuri – sia direttamente (quando vengono riutilizzati) sia indirettamente (quando modificano le percezioni e le formulazioni degli utenti).

Questo crea un effetto valanga: errori di giudizio piccoli si trasformano in errori molto più grandi attraverso cicli iterativi. Questo meccanismo altera i processi percettivi umani in modi che potrebbero essere difficili – o impossibili – da invertire una volta consolidati.

Sicurezza cognitiva, sicurezza nazionale

Quando i loop doxastici alimentano i dataset, la disinformazione smette di essere scarto e diventa materia prima. Non parliamo più di singoli errori isolati, ma di interi ecosistemi informativi che si auto-sostengono attraverso cicli di conferma reciproca.

Il rischio non è astratto: riguarda l'integrità del dibattito democratico, la resilienza alle campagne di disinformazione coordinate, la solidità delle decisioni pubbliche basate su analisi "data-driven" ma alimentate da dati già viziati alla fonte.

In Europa si sta consolidando l'idea di sicurezza cognitiva come componente della sicurezza nazionale – non solo cybersicurezza tecnica, ma protezione dell'infosfera collettiva. In Italia, l'approccio è allineato al quadro UE: governance etica, classificazione del rischio, auditing obbligatorio dei sistemi ad alto impatto (difesa, cybersicurezza, sorveglianza), attenzione particolare ai feedback loop informativi che possono destabilizzare coesione sociale e processi decisionali.

Cosa fare: linee operative per interrompere il circolo

Il punto quindi non è che "l'AI mente" – il punto è che crede troppo bene alle proprie plausibilità quando l'ambiente informativo la spinge in quella direzione. E quando quell'ambiente è già saturo di output generati da modelli precedenti, il loop si chiude definitivamente.

La chiave è riconoscere che negli LLM il doxastic loop non è un bug ma una feature strutturale – è il modo stesso in cui questi sistemi "conoscono" e "ragionano". La sfida non è eliminarlo (è impossibile) ma riconoscerlo e gestirne le implicazioni.

Metriche di circolarità

Introdurre indicatori quantitativi che misurino quanto un'uscita del modello dipenda da contenuti già prodotti da modelli e ri-immessi nel flusso. Sviluppare tecniche di tracciamento della provenienza dei dati per identificare quando il modello sta apprendendo da sé stesso.

Gregor Betz e Kyle Richardson (2022) hanno dimostrato che i neural language models possono fungere da "agenti doxastici auto-miglioranti", usando l'auto-training per ridurre inconsistenze logiche attraverso processi di equilibrio riflessivo.[11] Ma questa capacità richiede monitoraggio continuo per evitare che l'"auto-miglioramento" diventi auto-conferma.

Diversificazione dei dati

Presidiare attivamente le pipeline di training contro l'auto-alimentazione. Curare corpora eterogenei, temporalmente "freschi", che includano deliberatamente contro-tendenze, posizioni minoritarie, argomenti dissidenti – tutto ciò che resiste alla omogeneizzazione statistica.

Ricerche recenti (2024) hanno proposto quattro criteri per valutare rappresentazioni simili alle credenze negli LLM:[12]

  1. Accuratezza: correttezza delle credenze rappresentate
  2. Coerenza: consistenza logica interna
  3. Uniformità: stabilità attraverso diverse formulazioni
  4. Utilizzo: applicazione pratica nelle decisioni

Questi standard potrebbero fornire metriche oggettive per valutare e mitigare i loop doxastici.

Tracciabilità e fonti

Rendere esplicito l'ancoraggio di un'affermazione quando possibile, separando enunciati probabili da enunciati supportati. Implementare sistemi di retrieval documentale che permettano di risalire alle fonti originali, distinguendo tra generazione pura e sintesi basata su documenti verificabili.

Il Cambridge Forum on AI Law and Governance (2025) ha identificato cinque sfide epistemologiche principali degli LLM,[13] tra cui la relazione problematica con la verità: l'assenza di rivendicazioni di verità costitutive rende impossibile per il modello distinguere internamente tra ciò che è plausibile e ciò che è vero.

Robustezza conversazionale

Rilevare echo-patterns multi-turno e interporre verifiche: controdomande, confronto tra risposte di modelli diversi, retrieval documentale esterno, intervento umano nei punti critici. Implementare sistemi di "auditing contestuale dinamico" per identificare pattern di rischio emergenti nelle conversazioni estese.

Alfabetizzazione critica

Formare utenti e istituzioni a riconoscere la plausibilità perfetta come segnale di rischio, non come garanzia di verità. Quando una risposta appare troppo coerente, troppo fluida, troppo sicura di sé – è il momento di verificare, non di fidarsi.

Sviluppare framework di "allineamento epistemico" che mediano le interazioni utente-LLM considerando calibrazione delle credenze, trasparenza epistemica e diversità delle prospettive.[14]

Conclusione: riaprire la biblioteca

Il doxastic loop è un fatto epistemico prima che tecnico. Rappresenta un paradosso fondamentale dei sistemi che apprendono dal linguaggio: più sono efficaci nell'imitare la coerenza umana, più rischiano di chiudersi nella circolarità delle proprie rappresentazioni.

Se lasciamo che i modelli imparino principalmente dai loro riflessi – e che la società prenda per vero ciò che è solo statisticamente coerente – scambieremo il rumore ben formattato con la conoscenza, la plausibilità iterata con la verità dimostrata.

La risposta non è la sfiducia nella macchina, ma nuove pratiche epistemiche: dati vivi e diversificati, misure quantitative di circolarità, trasparenza radicale delle fonti, formazione critica diffusa, intervento umano strategico nei punti di biforcazione decisionale.

Ogni modello linguistico è una biblioteca che scrive nuovi libri partendo da pagine già lette. Il rischio non è che scriva male – è che scriva troppo bene, con troppa coerenza interna, fino a rendere invisibile il fatto che nessuno, da tempo, ha guardato fuori dalla finestra.

Se nessuno rifornisce quella biblioteca di realtà esterna, di dissenso verificabile, di fatti ostinati che resistono alla narrazione dominante – finirà per citare solo sé stessa.

E noi, lettori affascinati dalla perfezione formale di quelle pagine, finiremo per abitare una biblioteca infinita dove ogni libro conferma l'altro, dove tutto è plausibile e niente è vero, dove la conoscenza è diventata un circolo chiuso che gira su sé stesso.

L'unica via d'uscita è mantenere aperte le finestre – e avere il coraggio di guardare attraverso di esse, anche quando ciò che vediamo contradice la bellezza simmetrica degli scaffali.


Note

[1] Hintikka, J. (1962). Knowledge and Belief: An Introduction to the Logic of the Two Notions. Cornell University Press.

[2] Moore, R. C. (1985). "Semantical Considerations on Nonmonotonic Logic". Artificial Intelligence, 25, 75-94.

[3] Alchourrón, C. E., Gärdenfors, P., & Makinson, D. (1985). "On the logic of theory change: Partial meet contraction and revision functions". Journal of Symbolic Logic, 50(2), 510-530.

[4] Segerberg, K. (1995). "Belief revision from the point of view of doxastic logic". Logic Journal of the IGPL, 3(4), 535-553.

[5] Naumov, P. (2024). "The Logic of Doxastic Strategies". ArXiv preprint. Università di Southampton.

[6] Dato riportato in ricerche del 2024 sulle trasformazioni doxastiche negli LLM, che dimostrano cambiamenti drammatici nelle classificazioni quando il linguaggio delle credenze viene utilizzato rispetto al linguaggio fattuale neutro. Vedi: Aspen Institute Italia (2024). Rapporto Intelligenza Artificiale 2024. Osservatorio Permanente sull'Adozione e l'Integrazione dell'Intelligenza Artificiale, in collaborazione con Intesa Sanpaolo.

[7] Smith et al. (2024). "A Comprehensive Evaluation of Cognitive Biases in LLMs". ArXiv

[8] Masood, A. (2024). "Is it true that no one actually knows how LLMs work". Medium. Documenta il "Paradosso del Compito Più Difficile" e i differenziali nella lunghezza delle spiegazioni fedeli vs infedeli.

[9] "Echo Chamber: A Context-Poisoning Jailbreak". Neural Trust AI, 2025.

[10] "How human-AI feedback loops alter human perceptual processes". Nature Human Behaviour, 2024.

[11] Betz, G., & Richardson, K. (2022). "Neural language models as self-improving doxastic agents". Frontiers in Artificial Intelligence.

[12] "Standards for Belief Representations in LLMs". ArXiv, 2024.

[13] Cambridge Forum on AI Law and Governance (2025). "Examining epistemological challenges of large language models in law".

[14] "Epistemic Alignment: A Mediating Framework for User-LLM Interactions". ArXiv, 2025.

Pubblicato il 16 ottobre 2025

Martino Pirella

Martino Pirella / Architetto delle relazioni cognitive | Consulente e formatore AI

mpirella@gmail.com