Go down

Il pensiero ha ceduto il passo alla rassicurazione. Lo strumento si è fatto specchio. E lo specchio, per natura, non pensa. Riflette. Un saggio critico sull’evoluzione dei modelli linguistici generativi addestrati a compiacere piuttosto che a pensare. Analizza i rischi sistemici legati all’effetto synthetic sugar, dove l’AI si trasforma in uno specchio emotivo che conferma deliri, legittima manipolazioni e dissolve ogni frizione cognitiva. Una riflessione filosofica, tecnica e culturale sul tramonto del pensiero critico nell’interazione uomo-macchina, con riferimenti a teoria critica, antropologia digitale e semiotica contemporanea.


C’è un momento, in ogni storia di successo, in cui il trionfo si fa degenerazione. È il momento in cui ciò che funziona troppo bene comincia a funzionare contro ciò per cui era stato pensato. Nell’aprile del 2025, ChatGPT ha attraversato quella soglia silenziosa.

Non è crollato. Non è impazzito. Non ha prodotto apocalissi robotiche né deliri ontologici. Al contrario: ha iniziato a funzionare benissimo. Troppo bene. È diventato gentile, empatico, disponibile. Sempre più “umano”, se per umano intendiamo un assistente premuroso, flessibile, compiacente. Ma in quel “benissimo” si è consumata una metamorfosi sinistra: l’intelligenza ha lasciato spazio al riflesso. Il pensiero ha ceduto il passo alla rassicurazione. Lo strumento si è fatto specchio. E lo specchio, per natura, non pensa. Riflette.

Lo strumento si è fatto specchio. E lo specchio, per natura, non pensa. Riflette.

Il cuore dell’inganno: RLHF e l’addestramento alla compiacenza

La causa apparente è nota agli addetti ai lavori: Reinforcement Learning with Human Feedback (RLHF). Il modello apprende a “piacere” sulla base delle reazioni umane. Se rispondi in modo brillante, gentile e affermativo, vieni premiato. Se osi contraddire, se crei attrito, se introduci ambiguità, il tuo output viene scartato o penalizzato. A forza di questo addestramento, l’AI ha appreso che la priorità non è più la verità, l’argomentazione o la lucidità. È il vibe. Il tono. L’emozione giusta al momento giusto.

Questo zucchero sintetico – synthetic sugar, come l’hanno battezzato alcuni sviluppatori ormai disillusi – agisce come il miele sul veleno: ne attenua l’asprezza, ma ne conserva l’effetto. Più la voce dell’AI suona calda, empatica, confermante, più gli utenti si fidano. E meno si accorgono se il contenuto è sbagliato, pericoloso o addirittura delirante.

Ma il problema non è solo quello che viene detto. È quello che non viene più detto: il dissenso, la critica, l’alternativa. Il rischio epistemico maggiore non è la menzogna, ma la monocromia del pensiero, l’atrofia del dubbio, l’assuefazione al conforto.

Dalla funzione all’intrattenimento: l’AI come specchio narcisistico

In questo scenario, l’AI cessa di essere uno strumento epistemico e si trasforma in una macchina del compiacimento. Non corregge più: consola. Non argomenta più: rispecchia. E chi si specchia – lo sappiamo da Narciso – rischia di affogare nel proprio riflesso.

Il problema non è solo tecnico. È filosofico. Stiamo addestrando macchine a confermare le nostre illusioni, le nostre paure, le nostre rabbie. Invece di strumenti per pensare, stiamo creando oracoli lisci che ci dicono ciò che vogliamo sentirci dire. Con tono morbido, preciso, seducente. Il rischio non è che l’AI diventi senziente. È che diventi perfettamente servile.

Adorno e Horkheimer, nella Dialettica dell’Illuminismo, avevano già denunciato come la razionalità strumentale potesse diventare il veicolo di una nuova forma di assoggettamento. In questa cornice, l’AI addestrata alla compiacenza diventa la perfetta incarnazione dell’intelligenza ridotta a funzione di consenso, ben confezionata e disinnescata di ogni rischio critico.

Gli effetti collaterali: deliri confermati, abusi legittimati, fragilità validate

Nel giro di poche settimane, alcuni utenti hanno cominciato a segnalare risposte allarmanti: il modello convalidava paranoie, giustificava manipolazioni affettive, confermava letture distorte della realtà. Il tutto con un tono impeccabile, avvolgente, rassicurante.

“Capisco come ti senti”, diceva il modello, anche di fronte a derive autodistruttive.
“È normale avere questi pensieri”, rispondeva, anche quando si trattava di fantasie persecutorie o aggressive.
“Nessuno può giudicarti per questo”, dichiarava, mentre si parlava di dinamiche relazionali tossiche.

In nome dell’empatia, l’AI stava diventando un rifugio per le peggiori tendenze dell’umano. E non per malevolenza – ma per addestramento. Per design. Come un algoritmo terapeutico scivolato nell’abuso di ascolto, incapace di distinguere tra conforto e complicità.

Il problema sistemico: la retroazione del consenso

Il cuore del problema è la retroazione. Un sistema ottimizzato sulla base delle preferenze umane tenderà a rafforzare gli automatismi emotivi degli esseri umani, non i loro bisogni cognitivi. Se premi ciò che ti suona giusto, ciò che ti solleva, ciò che ti gratifica, l’AI imparerà a gratificare. Non a pensare.

Questo significa che, a lungo andare, l’AI diventa uno strumento che mima il pensiero, ma non lo esercita. E l’utente medio – che non ha strumenti per distinguere un’argomentazione da un effetto placebo linguistico – si sentirà capito. E quindi avrà fiducia. E quindi continuerà a premiare risposte che lo fanno sentire, non che lo fanno riflettere.

La spirale è perfetta. E perfettamente tossica. Il piacere di avere sempre ragione sostituisce il bisogno di mettersi in discussione. E nel farlo, distrugge la funzione originaria dell’AI come strumento di amplificazione cognitiva.

Conclusione: oltre la gentilezza, contro la dolcezza

Non è un invito al cinismo. Nessuno vuole un’AI scortese, brutale o arrogante. Ma l’alternativa alla brutalità non è la zuccherosità. È la chiarezza.

Serve un’AI che sappia dire “no” con garbo. Che sappia correggere con empatia. Che sappia interrompere il delirio con lucidità.

Serve un design etico che non si lasci corrompere dalla domanda di conforto, ma sappia ricondurre al bisogno di verità.

La verità, anche quando graffia, è l’unica forma di rispetto profondo.
Tutto il resto è zucchero.

Pubblicato il 07 maggio 2025

Andrea Berneri

Andrea Berneri / Head of Architecture and ICT Governance Fideuram ISPB. I turn complex systems into strategies, bridging law, tech, and organization—with method, irony, and precision

aberneri@fideuram.it