L'affermazione, in parole povere, è che coloro che sono addestrati nell'arte dell'analisi letteraria – in particolare quella che coinvolge la lettura sia con che contro corrente – possiedono già la flessibilità cognitiva necessaria per gestire il fascino ambiguo della hashtag#LLMs. Questi lettori sanno come sentirsi con hashtag#Gatsby e sospettano ancora di Fitzgerald. Questa abilità, così si sostiene, li prepara bene a navigare nel carisma sintattico della hashtag#ChatGPT, della hashtag#Claude o di qualsiasi altro motore di verbosità emerga dal cloud.
C'è molto da apprezzare in questo confronto. Ma l'analogia vacilla dove la posta in gioco epistemica si approfondisce. Nella lettura letteraria, specialmente all'interno delle tradizioni formaliste o moderniste, la de-familiarizzazione è centrale. La letteratura, per quanto instabile possa essere la categoria, mette in scena la rottura: la disgiunzione tonale, l'interruzione sintattica, l'ironia che taglia contro l'affetto. Queste rotture suscitano lacune nel pensiero stesso, un lampo momentaneo o un punto cieco nella nostra capacità razionale di dare un senso rapido al mondo. Il linguaggio in tali momenti diventa visibile come forma, e la forma diventa leggibile come condizione del pensiero.
Il linguaggio generato dall'intelligenza artificiale, al contrario, è ottimizzato per l'effetto opposto: se la letteratura intraprende il lavoro di defamiliarizzazione, gli LLM si specializzano nella rifamiliarizzazione. La loro fluidità oscura i processi ricorsivi, statistici e infrastrutturali che li producono. Raramente qualcosa nell'output si contrassegna come una rottura o richiama l'attenzione sulla propria costruzione (e se si verifica una rottura, lo fa a causa di differenze infrastrutturali distinte dall'IA). Il risultato è spesso l'equivalente retorico del Polonio di Amleto: un discorso che interpreta il significato senza ancorarlo. E anche Polonio va letto, anche se per mezzo di una diversa lente epistemica.
La lettura ravvicinata, quindi, deve essere ripensata. Ciò che leggiamo nei testi generati dall'intelligenza artificiale appartiene a un regime epistemologico diverso anche dalle definizioni più ampie della letteratura. Non c'è bisogno di invocare l'intenzione per distinguerli. Anche quando concepita come artefatto culturale dell'ideologia e del discorso al di là dell'intento autoriale, la letteratura presuppone un orizzonte epistemico – per quanto frammentario e differito – di pratiche significanti socialmente e storicamente intelligibili.
Queste differenze sollevano anche questioni pedagogiche riguardanti il principio del "trasferimento". L'idea che le competenze letterarie si "trasferiscano" nell'alfabetizzazione dell'IA si basa su un modello di competenza generalizzabile e priva di contesto. Ma se il significato dell'IA è sempre situato, modellato dall'architettura del sistema, dalla storia rapida e dalle affordances infrastrutturali, allora ciò che è necessario non è il trasferimento, ma la consapevolezza epistemica situata.
English original version
DO CLOSE-READING SKILLS TRANSFER TO AI?
There has been, of late, a flurry of well-meaning proclamations about the unexpected virtues of literary education in the age of algorithmic interlocutors. An excellent piece by Nick Potkalitsky, PhD offers what might be termed a pedagogical rapprochement between the disheveled textualities of fiction and the peculiar smoothness of generative AI. The claim, put plainly, is that those trained in the art of literary analysis—especially the kind involving reading both with and against the grain—already possess the cognitive flexibility needed to manage the duplicitous charm of hashtagLLLLMs. These readers know how to feel with Gatsbyhtag LLM and still suspect Fitzgerald. This skill, so the argument goes, prepares them well for navigating the syntactic charisma of ChayGPT, Claude haor whatever verbosity engine next emerges from the cloud.
There's much to value in this comparison. But the analogy falters where the epistemic stakes deepen. In literary reading—especially within formalist or modernist traditions, de-familiarization is central. Literature, unstable as the category may be, stages rupture—tonal disjunction, syntactic interruption, irony that cuts against affect. These ruptures elicit gaps in thought itself, a momentary flash or blindspot in our rational capacity to make quick sense of the world. Language in such moments becomes visible as form, and form becomes legible as thought’s condition.
AI-generated language, by contrast, is optimized for the opposite effect: If literature undertakes the labor of defamiliarization, LLMs specialize in refamiliarization. Their fluency obscures the recursive, statistical, infrastructural processes that produce them. Rarely does anything in the output mark itself as a break or call attention to its own construction (and if rupture occurs, it does so as a result of infrastructural differences distinct to AI.) The result is often the rhetorical equivalent of Hamlet’s Polonius—speech that performs meaning without anchoring it. And even Polonius must be read, though by means of a different epistemic lens.
Close reading, then, must be refigured. What we are reading in AI-generated text belongs to a different epistemological regime than even the broadest definitions of the literary. One needn’t invoke intention to distinguish them. Even when conceived as cultural artifact of ideology and discourse beyond authorial intent, literature presupposes an epistemic horizon—however fractious and deferred—of socially and historically intelligible signifying practices.
These differences also raise pedagogical questions regarding the principle of “transfer.” The notion that literary skills “transfer” into AI literacy rests on a model of generalizable, context-free competence. But if AI meaning is always situated—shaped by system architecture, prompt history, and infrastructural affordances—then what is required is not transfer but situated epistemic awareness.