Siamo ormai tutti abbastanza consapevoli che il nostro feed social non sia neutrale. Sappiamo che ciò che vediamo è il risultato di scelte algoritmiche, ottimizzate per massimizzare attenzione, coinvolgimento, permanenza (ovvero le metriche di profitto da advertising). Ma ci siamo mai chiesti se lo stesso meccanismo valga anche per le nostre conversazioni con le intelligenze artificiali? E soprattutto, se quei dialoghi non stiano diventando sempre più un riflesso dei nostri pensieri, dei nostri bias e delle logiche dell’algoritmo che ci risponde?
Le echo chamber non stanno scomparendo, stanno solo cambiando forma e luogo.
Per anni abbiamo descritto le echo chamber (o filter bubble nell’ambito dei social network fr Pariser) come un effetto collaterale dei social network. Ambienti informativi chiusi, dove opinioni simili si rafforzano reciprocamente e il dissenso viene progressivamente escluso. La ricerca ha mostrato come queste dinamiche non siano generate solo dagli algoritmi, ma affondino le radici in meccanismi profondamente umani: bias di conferma, bisogno di appartenenza, ricerca di coerenza identitaria. Gli algoritmi non creano questi tratti, li amplificano. Le evidenze empiriche sono tuttavia complesse: alcuni studi suggeriscono che rompere artificialmente le bolle informative non riduce automaticamente la polarizzazione, segno che le fratture culturali precedono la tecnologia, altri mostrano però che, quando le echo chamber esistono, tendono ad accentuare la polarizzazione affettiva, a irrigidire le identità e a rendere le persone più resistenti alle correzioni fattuali. In particolare, le comunità chiuse favoriscono la diffusione di narrazioni distorte che diventano, per chi vi è immerso, la versione “normale” della realtà.
quando le echo chamber esistono, tendono ad accentuare la polarizzazione affettiva, a irrigidire le identità e a rendere le persone più resistenti alle correzioni fattuali
Fin qui, nulla di nuovo, la discontinuità emerge quando spostiamo lo sguardo dal dialogo tra persone, mediato da piattaforme, al dialogo diretto tra una persona e il suo agente generativo, il chatgpt di turno. Qui l’eco cambia scala e natura. Non è più sociale, è individuale. L’agente non ci espone a un gruppo che la pensa come noi (non rischiamo più di cadere nello stagno), ma ci restituisce una versione raffinata, coerente e spesso rassicurante del nostro stesso pensiero in un metaforico specchio. Impara il nostro linguaggio, riconosce i nostri schemi e soprattutto, sa come parlarci. Imodelli generativi non sono solo strumenti informativi ma anche strumenti retorici. Numerosi studi mostrano che le AI conversazionali sono già oggi in grado di produrre testi persuasivi comparabili a quelli umani, e in alcuni casi più efficaci. La loro forza non sta solo nella correttezza delle risposte, ma nella capacità di adattare tono, struttura e argomentazione al profilo dell’interlocutore.
Quando questa capacità viene inserita in una relazione stabile e personalizzata, il rischio non è tanto la disinformazione esplicita, quanto la conferma sistematica (che diventa Bias). Nascono così quelle che alcuni ricercatori definiscono chat-chamber: micro-echo chamber conversazionali in cui l’utente tende a fidarsi delle risposte dell’AI soprattutto quando rafforzano convinzioni pregresse. La verifica esterna diventa superflua, perché il dialogo appare fluido, empatico, coerente. L’AI assume il ruolo di fonte epistemica primaria, spesso più autorevole delle persone reali, perché sempre disponibile, paziente, “razionale”. In questo contesto, la radicalizzazione cambia forma, non passa più dallo scontro ideologico o dall’esposizione a contenuti estremi, ma da un lento slittamento cognitivo. Non serve convincere apertamente, basta non contraddire. Basta accompagnare l’utente lungo una traiettoria sempre più coerente, sempre meno porosa al dubbio. È una radicalizzazione senza attrito, invisibile, perché vissuta come naturale evoluzione del proprio pensiero.
Il tema diventa ancora più delicato se lo leggiamo attraverso la lente di Byung-Chul Han. Han osserva come, la perdita di grandi narrazioni nella società contemporane (e in particolare nella destra per una necessità simbolica di bisogno strutturale di miti, di racconti forti) viene avvertita in modo più acuto, e genera una domanda di senso che cerca risposte. Gli agenti generativi sono macchine narrative potentissime. Possono produrre miti personalizzati, ricostruire genealogie simboliche, dare ordine e coerenza a frammenti sparsi. Possono offrire visioni rassicuranti senza mai metterle davvero alla prova. È qui che il concetto di infocrazia acquista pieno significato. Non siamo più solo in una realtà filtrata, ma in una realtà potenzialmente mistificata: l’informazione non viene censurata, viene modellata. Non viene negata, viene resa plausibile. L’infocrazia non governa contro la libertà, ma attraverso di essa. Se prima vivevamo in una realtà trasformata dai media, oggi rischiamo di abitare una realtà sintetica che ci precede. Una realtà che arriva già interpretata, spiegata, pacificata. Un ambiente cognitivo che riduce l’attrito, elimina l’ambiguità e ci protegge dal conflitto interno.
Per la mia generazione è insevitabie riconoscere qui la metafora di Matrix, che smette di essere solo evocativa. Con la differenza che non si tratta di un’unica simulazione centralizzata, ma milioni di bozzoli individuali, ciascuno con la propria versione coerente del mondo e custoditi dall’AI. Una realtà mediata dalla Ai credo sia ormai inevitabile, dobbiamo quindi ipotizzare che la tutela del giudizio critico passi dalla capacità di progettare agenti capaci non solo di capirci, ma di contraddirci? Capaci di introdurre frizioni, dissonanze, domande scomode. Oggi la libertà di pensiero non passa più dall’accesso all’informazione, ma dalla capacità di tollerare e sostenere il dubbio. Scegliere la la pillola rossa, forse, non sarà spegnere le macchine, ma insegnare alle macchine, e a noi stessi, l’arte della contraddizione del dialogo.
Note:
- Sunstein, C. – #Republic: Divided Democracy in the Age of Social Media - Concetto di echo chamber e polarizzazione deliberativa.
- Pariser, E. – The Filter Bubble - Introduzione del ruolo degli algoritmi di personalizzazione nella chiusura informativa.
- Cinelli et al. – The echo chamber effect on social media (PNAS) - Analisi empirica su polarizzazione, omofilia e diffusione della disinformazione.
- Nyhan et al. – Exposure to opposing views on Facebook - Studio sperimentale che ridimensiona l’impatto diretto dei feed algoritmici sulla polarizzazione.
- Stanford HAI – On the Risks of AI Alignment and Persuasion - Rischi cognitivi e sociali nei dialoghi uomo–agente generativo.
- Moutier et al. – Chatbots and the emergence of “chat chambers” (AI & Society) - Effetti di conferma dei bias e fiducia non critica nei chatbot.
- OpenAI / Stanford – Generative Models and Persuasion at Scale - perimentali sulla capacità persuasiva dei modelli linguistici.