Go down

Sappiamo che i social non sono neutrali, quello che vediamo è il risultato di scelte algoritmiche pensate per massimizzare attenzione e coinvolgimento. Ma stiamo facendo lo stesso ragionamento sulle conversazioni con l’AI? Temo che le echo chamber non stiano sparendo, ma (solo) diventando "private". In questo articolo mi sono chiesto cosa succede quando una AI non ci espone a opinioni simili alle nostre, ma ci restituisce una versione ordinata, coerente e spesso rassicurante del nostro stesso pensiero.

Il pericolo non è la disinformazione esplicita, ma la conferma sistematica. Ritrovo qui l’idea di hashtag#infocrazia, di Byung Chul Han, dove l’informazione non viene negata, viene modellata ma anche una versione postmoderna della metafora di Matrix dove non si parla più di una simulazione unica, ma di milioni di bozzoli cognitivi. Credo in gioco ci sia la libertà di pensiero, perchè questa passa dalla capacità di tollerare il dubbio.


Siamo ormai tutti abbastanza consapevoli che il nostro feed social non sia neutrale. Sappiamo che ciò che vediamo è il risultato di scelte algoritmiche, ottimizzate per massimizzare attenzione, coinvolgimento, permanenza (ovvero le metriche di profitto da advertising). Ma ci siamo mai chiesti se lo stesso meccanismo valga anche per le nostre conversazioni con le intelligenze artificiali? E soprattutto, se quei dialoghi non stiano diventando sempre più un riflesso dei nostri pensieri, dei nostri bias e delle logiche dell’algoritmo che ci risponde?

Le echo chamber non stanno scomparendo, stanno solo cambiando forma e luogo.

Per anni abbiamo descritto le echo chamber (o filter bubble nell’ambito dei social network fr Pariser) come un effetto collaterale dei social network. Ambienti informativi chiusi, dove opinioni simili si rafforzano reciprocamente e il dissenso viene progressivamente escluso. La ricerca ha mostrato come queste dinamiche non siano generate solo dagli algoritmi, ma affondino le radici in meccanismi profondamente umani: bias di conferma, bisogno di appartenenza, ricerca di coerenza identitaria. Gli algoritmi non creano questi tratti, li amplificano. Le evidenze empiriche sono tuttavia complesse: alcuni studi suggeriscono che rompere artificialmente le bolle informative non riduce automaticamente la polarizzazione, segno che le fratture culturali precedono la tecnologia, altri mostrano però che, quando le echo chamber esistono, tendono ad accentuare la polarizzazione affettiva, a irrigidire le identità e a rendere le persone più resistenti alle correzioni fattuali. In particolare, le comunità chiuse favoriscono la diffusione di narrazioni distorte che diventano, per chi vi è immerso, la versione “normale” della realtà.

quando le echo chamber esistono, tendono ad accentuare la polarizzazione affettiva, a irrigidire le identità e a rendere le persone più resistenti alle correzioni fattuali

Fin qui, nulla di nuovo, la discontinuità emerge quando spostiamo lo sguardo dal dialogo tra persone, mediato da piattaforme, al dialogo diretto tra una persona e il suo agente generativo, il chatgpt di turno. Qui l’eco cambia scala e natura. Non è più sociale, è individuale. L’agente non ci espone a un gruppo che la pensa come noi (non rischiamo più di cadere nello stagno), ma ci restituisce una versione raffinata, coerente e spesso rassicurante del nostro stesso pensiero in un metaforico specchio. Impara il nostro linguaggio, riconosce i nostri schemi e soprattutto, sa come parlarci. Imodelli generativi non sono solo strumenti informativi ma anche strumenti retorici. Numerosi studi mostrano che le AI conversazionali sono già oggi in grado di produrre testi persuasivi comparabili a quelli umani, e in alcuni casi più efficaci. La loro forza non sta solo nella correttezza delle risposte, ma nella capacità di adattare tono, struttura e argomentazione al profilo dell’interlocutore.

Quando questa capacità viene inserita in una relazione stabile e personalizzata, il rischio non è tanto la disinformazione esplicita, quanto la conferma sistematica (che diventa Bias). Nascono così quelle che alcuni ricercatori definiscono chat-chamber: micro-echo chamber conversazionali in cui l’utente tende a fidarsi delle risposte dell’AI soprattutto quando rafforzano convinzioni pregresse. La verifica esterna diventa superflua, perché il dialogo appare fluido, empatico, coerente. L’AI assume il ruolo di fonte epistemica primaria, spesso più autorevole delle persone reali, perché sempre disponibile, paziente, “razionale”. In questo contesto, la radicalizzazione cambia forma, non passa più dallo scontro ideologico o dall’esposizione a contenuti estremi, ma da un lento slittamento cognitivo. Non serve convincere apertamente, basta non contraddire. Basta accompagnare l’utente lungo una traiettoria sempre più coerente, sempre meno porosa al dubbio. È una radicalizzazione senza attrito, invisibile, perché vissuta come naturale evoluzione del proprio pensiero.

Il tema diventa ancora più delicato se lo leggiamo attraverso la lente di Byung-Chul Han. Han osserva come, la perdita di grandi narrazioni nella società contemporane (e in particolare nella destra per una necessità simbolica di bisogno strutturale di miti, di racconti forti) viene avvertita in modo più acuto, e genera una domanda di senso che cerca risposte. Gli agenti generativi sono macchine narrative potentissime. Possono produrre miti personalizzati, ricostruire genealogie simboliche, dare ordine e coerenza a frammenti sparsi. Possono offrire visioni rassicuranti senza mai metterle davvero alla prova. È qui che il concetto di infocrazia acquista pieno significato. Non siamo più solo in una realtà filtrata, ma in una realtà potenzialmente mistificata: l’informazione non viene censurata, viene modellata. Non viene negata, viene resa plausibile. L’infocrazia non governa contro la libertà, ma attraverso di essa. Se prima vivevamo in una realtà trasformata dai media, oggi rischiamo di abitare una realtà sintetica che ci precede. Una realtà che arriva già interpretata, spiegata, pacificata. Un ambiente cognitivo che riduce l’attrito, elimina l’ambiguità e ci protegge dal conflitto interno.

Per la mia generazione è insevitabie riconoscere  qui la metafora di Matrix, che smette di essere solo evocativa. Con la differenza che non si tratta di un’unica simulazione centralizzata, ma milioni di bozzoli individuali, ciascuno con la propria versione coerente del mondo e custoditi dall’AI. Una realtà mediata dalla Ai credo sia ormai inevitabile, dobbiamo quindi ipotizzare che la tutela del giudizio critico passi dalla capacità di progettare agenti capaci non solo di capirci, ma di contraddirci? Capaci di introdurre frizioni, dissonanze, domande scomode. Oggi la libertà di pensiero non passa più dall’accesso all’informazione, ma dalla capacità di tollerare e sostenere il dubbio. Scegliere la la pillola rossa, forse, non sarà spegnere le macchine, ma insegnare alle macchine, e a noi stessi, l’arte della contraddizione del dialogo.


Note:

StultiferaBiblio

  • Eli Parisier, Il filtro Il Saggiatore, 212,

Pubblicato il 21 dicembre 2025

Giorgio Sacconi

Giorgio Sacconi / Passionate Marketer | GenAI Explorer | Startup Advisor | Holacracy and Progressive Orga enthusiast | Ai speaker & teacher