L'AI non ha rotto niente che non fosse già incrinato
Qualche mattina fa mi sono ritrovato a fare un giro tra le live di TikTok. Erano le 10:36. L'80, forse il 90 per cento delle live attive in quel momento erano fatte da ragazze in classe, mentre il professore faceva lezione. In sottofondo si sentivano voci, spiegazioni, il rumore sordo di un'aula. In primo piano, uno schermo che guardava altrove.
Lo racconto perché quella scena non ha niente a che fare con l'AI. In quelle live non c'era ChatGPT. C'era qualcosa di più antico e più difficile da nominare.
Ma c'è un dettaglio che non ho ancora detto: quelle voci in sottofondo, le lezioni, erano di una noia mortale. Tono piatto, arreso. Il che apre una domanda scomoda, che non assolve nessuno ma che non si può ignorare: nelle lezioni che non sono di una noia mortale, ci sono lo stesso le live di TikTok? È possibile, forse probabile, che la disconnessione degli studenti non sia distribuita uniformemente, ma che dipenda anche da quello che accade dentro l'aula. Questo non sposta la responsabilità sugli insegnanti e non giustifica il comportamento degli studenti. Ma complica la narrativa della degenerazione morale che percorre, sottotraccia, anche il testo di Lastilla.
La scuola aveva già perso la gara per l'attenzione di molti studenti, silenziosamente, molto prima che arrivassero i modelli linguistici. L'AI non ha ucciso il pensiero critico. Ha trovato un paziente che già non stava benissimo.
Una storia più lunga
Lastilla ricostruisce con precisione la parabola che ha portato alla contestazione sistematica della valutazione: prima la soggettività del giudizio messa in discussione, poi le griglie oggettive come risposta difensiva, poi le scelte multiple come resa progressiva. È una storia vera. Ma ha radici che non stanno solo nell'aula.
Gli studenti hanno cominciato a contestare i voti. Il sistema ha risposto a quella contestazione cercando di rendere la valutazione irrefutabile attraverso la standardizzazione. Ha rinunciato alla soggettività, che non è un difetto della valutazione ma la sua sostanza, per inseguire un'oggettività che esiste solo al prezzo di misurare cose sempre più povere.
Le griglie di valutazione non sono nate per aiutare gli studenti a pensare meglio. Sono nate, come Lastilla stesso ammette, per pararsi il deretano. Quel momento è il vero punto di svolta: la decisione istituzionale di rispondere alla sfiducia con la burocrazia invece che con l'autorità professionale precede di molto l'arrivo dell'AI.
La simmetria che nessuno vuole vedere
C'è una domanda che il dibattito sull'AI a scuola sistematicamente evita.
Quando uno studente usa l'AI per farsi scrivere un compito, tutti concordano che stia tradendo il patto pedagogico: consegna un output che soddisfa requisiti formali ma che non ha attraversato la sua mente, che non ha prodotto apprendimento.
Quando un docente usa, ad esempio, un sistema di correzione automatizzata, come Gradescope (piattaforma nata a Berkeley e oggi adottata da 2.600 università nel mondo) per valutare in batch senza leggere davvero le singole risposte, cosa sta facendo? O un altro che fa correggere i compiti o i test da ChatGPT o, se è proprio supersmart da un Agente di Claude? Consegna una valutazione che soddisfa requisiti formali, punteggi assegnati, feedback fornito, ma che non ha attraversato la sua attenzione e non ha prodotto conoscenza dello studente. E bara anche lui. Nessuno lo fa? Forse. Ma sicuramente se lo fa, non lo dice.
I dirigenti scolastici, smarriti di fronte a questo tsunami, vietano l'uso della Ai nei propri Istituti: "tanto i docenti poi, sono direttamente responsabili". Sì, come no.
La struttura è la stessa. La sanzione è asimmetrica. Si apre così la spirale verso quella che ho chiamato altrove la classe fantasma: docente che non legge davvero, studente che non scrive davvero, feedback che non è davvero feedback. Relazione educativa ridotta a scambio di forme vuote.
Non tutto l'uso dell'AI è uguale
Lastilla descrive lo studente che usa l'AI per rielaborare i propri paragrafi e poi nega che il risultato sia plagio, sostenendo che l'input era suo. È una posizione intellettualmente disonesta, e Lastilla fa bene a non accettarla.
Ma c'è una distinzione che il suo articolo, comprensibilmente esasperato, non fa, e che mi sembra invece centrale.
Ho sviluppato altrove il concetto di Esomente: una mente che si proietta fuori da sé, che pensa attraverso un'alterità cognitiva senza dissolversi in essa. La distinzione rispetto alla mente estesa di Clark e Chalmers è precisa: quella descrive l'uso funzionale di supporti esterni, il taccuino che conserva informazioni al posto della memoria biologica. L'Esomente descrive una relazione trasformativa attiva, un sistema che non conserva il pensiero ma lo ricodifica, lo riorganizza, lo riflette in forma modificata. Un archivio che parla.
Chi usa l'AI in questa modalità, come interlocutore che sollecita e rispecchia il pensiero invece di sostituirlo, sta facendo qualcosa cognitivamente molto diverso dal plagio. Quando scrivo con l'AI seguo un metodo preciso: costruisco l'impalcatura, stabilisco i vincoli stilistici, scrivo, rileggo, sistemo. Cinque strati di revisione, a volte sei. Cerco i manierismi della macchina, i tic invisibili presi singolarmente ed evidenti in serie. Ogni decisione finale è mia. L'AI propone, io dispongo.
Questo processo non sostituisce il pensiero. Lo sollecita in modo diverso. E la domanda che mi sembra rilevante per il discorso di Lastilla è se esista una differenza cognitiva sostanziale tra uno studente che usa l'AI come scorciatoia e uno che la usa come specchio critico attraverso cui affinare il proprio pensiero. La mia risposta è che quella differenza esiste, ed è enorme. Ma richiede che qualcuno abbia insegnato allo studente a stare in quella relazione in modo attivo.
C'è anche un nodo di onestà intellettuale che il sistema educativo non ha ancora affrontato seriamente. Quando scrivo con l'AI, lo dichiaro. Spiego il processo non per giustificarmi, ma perché chi legge ha diritto di sapere come è stato fatto. La capacità di dichiarare il proprio processo, di rendere trasparente il rapporto con gli strumenti usati, potrebbe diventare essa stessa una competenza da insegnare e da valutare. Una forma di pensiero critico applicato non ai contenuti ma al metodo.
Prima di insegnare a guidare, bisogna saper guidare
Tutto quello che ho detto fin qui, però, si regge su un presupposto che nella scuola di oggi è largamente assente: che i docenti sappiano cosa sia l'AI, come funziona, dove aiuta e dove inganna. E sappiano insegnare ad usarla. O che vengano messi in condizione di farlo.
Un istruttore di scuola guida deve saper guidare prima di insegnarlo ad altri. Sa riconoscere un errore di traiettoria, sa distinguere una frenata corretta da una pericolosa, sa leggere il comportamento del veicolo in condizioni diverse. Senza quella competenza, non può insegnare niente di utile e non può valutare niente di reale.
Lo stesso vale per i docenti nell'era dell'AI. Per rovesciare il paradigma dal "insegno e valuto un prodotto" al "osservo e valuto un processo che include l'AI", un docente deve sapere riconoscere la mano dell'AI in un testo. Deve saper distinguere un uso attivo da uno passivo, deve conoscere i tic caratteristici dei modelli linguistici, quei pattern sintattici che si ripetono meccanicamente e che diventano evidenti a chi sa cercarli. Deve saper valutare non solo il prodotto consegnato ma la qualità del dialogo che lo studente ha intrattenuto con lo strumento.
Oggi la maggior parte dei docenti non ha questa formazione. E senza di essa, ogni proposta metodologica, per quanto solida, rimane inapplicabile. Chiedere a un insegnante di valutare l'uso critico dell'AI da parte di uno studente senza avergli prima dato gli strumenti per farlo è come chiedere a qualcuno di correggere testi in una lingua che non conosce.
Questo non è un dettaglio operativo. È la condizione necessaria per qualsiasi cambiamento reale. E richiede un investimento massiccio nella formazione dei docenti, non nell'uso degli strumenti, ma nella capacità di interrogarli, di capirne i limiti e le potenzialità, di sviluppare un giudizio professionale che includa la dimensione tecnologica senza esserne sopraffatto.
Una questione politica, prima che pedagogica
Le proposte di Lastilla, soli esami orali o abolizione dei voti, sono risposte pedagogiche a un problema che mi pare politico prima che pedagogico. Lo dico da osservatore esterno, senza la memoria vissuta di anni in cattedra che lui porta, e con tutta la cautela che quella posizione richiede.
Mia madre insegnava lettere in un istituto tecnico. Portava a casa pile di compiti, ci passava interi pomeriggi. Si lamentava della fatica. Ma quella correzione non era misurazione: era conoscenza. Leggeva i pensieri dei suoi studenti, capiva chi aveva problemi familiari dal tono improvvisamente cupo di una narrazione, riconosceva i progressi di chi iniziava a tentare costruzioni sintattiche più complesse. Quella fatica aveva dignità pedagogica.
Il problema forse non è che correggere richieda troppo tempo. È che quel tempo non viene riconosciuto, contrattualmente e culturalmente, come il lavoro centrale che è. Finché le condizioni strutturali restano quelle che sono, classi sovraffollate, burocrazia che divora la didattica, correzioni portate a casa come residuo serale di una professione che non si riesce a esercitare durante le ore scolastiche, ogni soluzione metodologica rischia di essere un cerotto su una frattura.
Quello che si può fare
Detto tutto questo, un'agenda esiste. E ignorarla in favore della sentenza finale mi sembra un lusso che la scuola non può permettersi.
Se il problema è che la valutazione basata sul prodotto finale può essere facilmente aggirata dall'AI, la risposta non è solo spostare tutto all'orale. È spostare il fuoco dal prodotto al processo. Valutare come uno studente affronta un problema complesso, come sviluppa e modifica le proprie idee nel tempo, come risponde a sfide e obiezioni, come giustifica le proprie scelte. La valutazione dialogica, in cui lo studente deve difendere le proprie idee, rispondere a domande impreviste, dimostrare comprensione profonda attraverso la capacità di applicare concetti in contesti nuovi, è una risposta metodologica concreta.
Così i portfolio riflessivi, collezioni di lavori che mostrano l'evoluzione del pensiero nel tempo accompagnate da riflessioni metacognitive sul proprio processo di apprendimento. O i problemi aperti e contestualizzati, quelli che richiedono l'applicazione creativa di conoscenze a situazioni specifiche e uniche, dove non esiste una risposta predefinita che l'AI possa fornire. Il metodo socratico rivisitato, i dialoghi individuali o in piccoli gruppi, il learning by teaching in cui gli studenti vengono valutati sulla capacità di spiegare un concetto ai compagni adattandosi alle loro domande. Queste non sono utopie pedagogiche. Sono pratiche già esistenti che richiedono condizioni di lavoro adeguate per essere adottate su scala, e docenti formati per metterle in pratica.
In questo quadro il docente smette di essere principalmente un trasmettitore di contenuti e diventa un architetto di esperienze di apprendimento, un facilitatore del pensiero critico, un mentore metacognitivo che aiuta gli studenti a capire come imparano. Un ruolo che nessun sistema di valutazione automatizzata può svolgere, e che nessun LLM può replicare.
E concludo
Quando la fotografia fu inventata, molti predissero la morte della pittura. Perché dipingere quando una macchina poteva catturare la realtà con precisione perfetta? La pittura non morì. Si trasformò. Liberata dall'obbligo di rappresentare fedelmente il visibile, esplorò dimensioni che prima non aveva motivo di esplorare: l'impressionismo catturò la luce e l'emozione, l'espressionismo esplorò gli stati interiori, l'astrattismo abbandonò completamente la rappresentazione.
Qualcosa di simile potrebbe accadere con la scrittura e il pensiero nell'era dell'AI. Liberati dalla necessità di produrre testi formalmente perfetti, compito che l'AI svolge egregiamente, potremmo concentrarci su quello che è irriducibilmente umano: l'insight originale, la connessione creativa, l'applicazione contestuale della conoscenza, la sintesi basata sull'esperienza vissuta.
Lastilla chiude con una sentenza: è la fine della civiltà umanistica. Lo capisco. Lo sento. Da osservatore mi fermo un passo prima, non per ottimismo di temperamento ma perché la civiltà umanistica ha già attraversato invenzioni che sembravano letali e ne è uscita trasformata. Sopravvive finché ha argomenti per spiegare perché pensare abbia senso, perché scrivere in prima persona su un'esperienza vissuta valga qualcosa che nessun sistema può replicare, perché la fatica di correggere un tema sia il luogo in cui un insegnante conosce davvero i propri studenti.
L'AI ha reso tutto questo urgente e visibile. Ma il cantiere era aperto da prima. E se il problema preesiste allo strumento, può sopravvivergli. A condizione che qualcuno si prenda la responsabilità di nominarlo con precisione, come fa Lastilla, e poi di lavorarci sopra.
Il suo pezzo, con tutto il suo disincanto, è già una forma di resistenza. Spero che anche il mio lo sia.
Come scrivo i miei articoli. Parto da un’intuizione, un’irritazione, una domanda che non mi lascia in pace. La sviluppo in un dialogo con diversi modelli di intelligenza artificiale — non come strumenti a cui dare comandi, ma come interlocutori con cui ragionare. Chiedo, contesto, rilancio. Butto via molto. Faccio riscrivere. Cambio modello per cambiare prospettiva. Il testo che leggete è il risultato di questo processo: le idee sono mie, la responsabilità è mia, ma il percorso che le ha portate qui è passato attraverso conversazioni con macchine che mi hanno costretto a pensare meglio — o almeno diversamente. Chi predica trasparenza sull’uso dell’AI deve praticarla. Questo è il mio modo.