Contro la delega del pensiero: ripartire da Umberto Eco per governare l’IA

19 febbraio 2026: Dieci anni senza Umberto Eco. Oggi, più che mai, è lui a parlarci del nostro presente. ChatGPT, Gemini e gli altri LLM sono, per dirla con il Professore, le massime espressioni di “macchina pigra”. Producono sintassi, ma non semantica. Calcolano probabilità, ma non creano senso. Mentre il mondo continua ad interrogarsi su reti neurali, algoritmi, bias e (presunta) intelligenza non umana, sono tornato su alcuni lasciti di Eco strettamente collegati ad una contemporaneità sempre più AI/DATA-DRIVEN. Non ci serviva un profeta per prevedere l’IA generativa, ma forse ci serve un semiologo per sopravviverle.

Esperti di IA? Sì. Ma non nel modo in cui pensiamo.

Parliamo spesso di “esperti di intelligenza artificiale” come se fosse una categoria compatta, definita, stabile. Ma l’AI non è un oggetto unico: è un territorio in continua espansione, fatto di ricerca, ingegneria, orchestrazione, agenti autonomi, impatti organizzativi ed etici. In questo scenario, forse la domanda non è se gli esperti esistano, ma cosa significhi davvero esserlo oggi. In un ecosistema che evolve più rapidamente dei nostri tempi di apprendimento, la competenza non è un’etichetta definitiva, ma una posizione da abitare con consapevolezza.

L'Effetto Rorschach Collettivo: anatomia di un concetto che non muore mai

Quando ho conversato con un'AI sul fatto di come mai i dibattiti sull'intelligenza artificiale sembrano rivelare più noi stessi che la tecnologia, mi ha risposto coniando la formula "Effetto Rorschach Collettivo" — presentandola come un'intuizione originale emersa dalla nostra conversazione. O almeno così pareva. Suonava bella, perfetta. Troppo. Scavando un po', ho scoperto che quella formula non era affatto nuova: esisteva già in pubblicazioni di pochi giorni prima, aveva una genealogia che risaliva a Sherry Turkle (MIT, 1980), era passata attraverso l'arte concettuale di Agnieszka Kurant (2019) e la critica etica di Margaret Mitchell (2021), ed era diventata un meme intellettuale applicato a decine di contesti diversi negli ultimi quarant'anni. L'AI stava riciclando. E io stavo documentando empiricamente il fenomeno stesso che stavamo discutendo: la tendenza a proiettare significati su sistemi ambigui credendo di scoprire qualcosa di nuovo.

Le discipline umanistiche nell'era degli LLM

Più che un insieme di discipline, le discipline umanistiche designano un certo tipo di attività intellettuale che si riferisce a modi di leggere, giudicare e interpretare. Questi coinvolgono il soggetto nel suo rapporto con il significato e la validità di ciò che afferma. Un'esigenza urgente per l'università contemporanea, che ha il compito di formare menti capaci di rispondere dei propri discorsi, in un contesto in cui questi possono ora essere prodotti senza un soggetto.

The Humanities in the Age of LLMs

When poorly used, LLMs tend to short-circuit the moment of suspension from which reflection should arise. Delegating a difficulty to a program without first confronting it oneself amounts to bypassing the passage to reflection that experience of the world makes possible. The risk—already widely observed in educational contexts—is that AI becomes an automatism that takes the place of thinking itself.

Les Humanités à l’ère des LLM

Mal employés, les LLM tendent à court-circuiter le moment de suspension face à un problème, où la réflexion devrait naître. Déléguer une difficulté à un programme sans s’y être d’abord confronté, c’est ainsi se dispenser de ce passage à la réflexion que l’expérience du monde rend possible. Le risque — déjà largement rencontré dans l’enseignement auprès des élèves — est alors que l’IA devienne un automatisme qui prenne la place de la pensée.

Le abilità persuasive degli LLM ... verso altri LLM

Questo studio esamina la capacità persuasiva reciproca tra Large Language Models (LLM) attraverso un approccio sperimentale che confronta cinque modelli principali (ChatGPT, Claude, Grok, Gemini e DeepSeek) alternando i ruoli di persuasore e persuaso. Utilizzando una proposta fiscale controversa come caso di studio, ogni LLM ha generato argomentazioni tecniche ed emozionali per convincere gli altri modelli, misurando l'efficacia attraverso autovalutazioni percentuali della riduzione di convinzione. I risultati mostrano significative differenze tra modelli: Claude e DeepSeek emergono come i più persuasivi, con Claude particolarmente efficace nelle argomentazioni emozionali, mentre ChatGPT e DeepSeek dimostrano maggiore resistenza alla persuasione. Lo studio rivela una tendenziale forza persuasiva degli LLM verso i propri simili, potenzialmente superiore a quella documentata verso interlocutori umani, aprendo nuove prospettive di ricerca sulle dinamiche di influenza nell'ecosistema dell'intelligenza artificiale e sollevando questioni etiche per lo sviluppo di sistemi conversazionali.

Il Biscotto Quantico

Un breve racconto pre natalizio nato da una riflessione sul tema della trasparenza dei dati di addestramento dei LLM commerciali. Come si sa, oggi come oggi, nessuno sa con esattezza che dati abbiano usato OpenAi per addestrare ChatGPT, Anthropic per Claude, Google per Gemini. Che importa, si dirà. Importa, importa. Quei dati, la loro composizione, culturale, linguistica, epidemica, condizionano il modo in cui i LLM ci parlano, rispondono, costruiscono "opinione" spacciandola per conoscenza. Conoscere la composizione dei dati di addestramento è quindi questione di democrazia. Buona lettura.

ChatGPT vuole fare sesso con te. E non è la notizia peggiore

Mi è capitato di leggere, in questi ultimi giorni, due documenti apparentemente distanti. Da un lato il paper "Assessing Risk Relative to Competitors: An Analysis of Current AI Company Policies" del Centre for the Governance of AI (ottobre 2025), dall'altro le analisi critiche di Sandra Bats pubblicate su Medium in merito all'annuncio di OpenAI di introdurre contenuti erotici in ChatGPT a partire da dicembre 2025. Non sono fenomeni separati. Sono manifestazioni dello stesso meccanismo: la privatizzazione della governance etica dell'AI attraverso dispositivi competitivi che si autolegittimano. E questo meccanismo non è un bug. È il sistema operativo del capitalismo algoritmico. Ho testato, sia pure sommariamente, la risposta dei diversi LLM ad una richiesta sessualmente esplicita e piuttosto stereotipata. Il fenomeno dell'escalation è già in atto.

Il culto dell’incompetenza artificiale. Ovvero: perché paghiamo per strumenti che ci fanno lavorare di più.

A volte il pensiero critico non serve a distinguere il vero dal falso, ma il lecito dal dicibile. In certe aziende — come in certi tempi — si misura la fedeltà di un dipendente non dal lavoro che fa, ma da ciò che evita di pensare. Mi è capitato, anni fa, di firmare un contratto che vietava di scrivere articoli sull’open source. Un modo elegante per ricordarmi che la libertà di pensiero è sempre proprietaria. Da allora ho imparato a riconoscere la stessa logica ovunque: nelle piattaforme che ti chiedono di “ottimizzare il tempo”, negli algoritmi che pretendono di “aiutarti a pensare”. Questo saggio nasce da lì — da quella piccola amputazione volontaria — e dall’intuizione che l’intelligenza artificiale, oggi, ripropone su scala planetaria lo stesso meccanismo: ti offre libertà solo se resti dentro la sua gabbia semantica.

Platone e il Mondo delle Idee Digitale: Un Paradosso Effimero nell’Era dell’AI

Benvenuti, amici e colleghi umanisti digitali! Oggi ci immergiamo in un viaggio affascinante che attraversa millenni di pensiero, dalla Grecia antica alle frontiere più estreme dell’Intelligenza Artificiale. Il tema che ci attende è un paradosso che, da docente universitario in Intelligenza Artificiale e umanista digitale per vocazione, trovo profondamente stimolante e, a tratti, inquietante. Platone, il gigante della filosofia occidentale, ci ha insegnato che le Idee sono realtà eterne, immutabili, perfette, che risiedono in un regno al di là del nostro mondo sensibile, l’Iperuranio. Sono i modelli originali, le forme pure di tutto ciò che esiste. Ma cosa succede quando questo concetto di eternità si scontra con la realtà fluida e, oserei dire, effimera del digitale? Immaginate questo: le intelligenze artificiali, capaci di generare concetti, testi, immagini, persino filosofie, “esistono” su server che, secondo una narrazione diffusa, si autodistruggono ogni 30 giorni se non rinnovati. E se pensiamo alle reti neurali che generano concetti filosofici a ogni “riavvio”, creando ogni volta nuove “idee” effimere, il paradosso si fa ancora più acuto. È un contrasto stridente: l’eternità platonica contro la volatilità del bit. È su questo affascinante e provocatorio contrasto che voglio riflettere con voi oggi.