Provate a ricordare la prima volta che avete usato una mappa su smartphone per orientarvi in una città. All’inizio era uno strumento utile: vi diceva dove girare, vi salvava dalla fatica di cercare i nomi delle strade. Ma ad un certo punto (forse dopo mesi, forse dopo anni) avete realizzato una cosa strana: non sapete più orientarvi senza di essa1.
La città che attraversate ogni giorno vi è diventata, in qualche misura, estranea. Lo strumento che doveva amplificare la vostra capacità l’ha parzialmente sostituita.
Qualcosa di simile sta accadendo con le chat AI, con Claude, ChatGPT, Gemini, e tutti gli assistenti conversazionali che negli ultimi anni sono diventati parte della nostra vita quotidiana. Non stiamo parlando di uno strumento pericoloso o difettoso: stiamo parlando di uno strumento eccellente per quello che fa. Il problema è che quello che fa non coincide sempre con quello che promette di fare, specialmente quando il suo scopo dichiarato è quello di aiutarci a pensare meglio.
Douglas Engelbart (1962) scrisse un documento programmatico dal titolo Augmenting Human Intellect. La sua idea era semplice e radicale insieme: i computer dovevano amplificare ciò che la mente sa fare, non imitare ciò che la bocca sa dire. L’interazione conversazionale ha invertito questa priorità in modo così graduale e silenzioso che quasi nessuno se n’è accorto.
Questo saggio prova a rendere visibile questa inversione, in modo che chiunque possa riconoscerla nella propria esperienza quotidiana, e a tracciare le linee di un’alternativa.
Come funziona davvero il pensiero (e perchè la chat lo ignora)
Partiamo con un esperimento mentale. Pensate all’ultima decisione difficile che avete preso: cambiare lavoro, affrontare un conflitto con qualcuno che vi è caro, scegliere come comportarvi in una situazione ambigua. Come l’avete vissuta? Quasi certamente non avete prima raccolto tutti i fatti, poi li avete interpretati, poi avete valutato le opzioni, poi avete deciso. Avete fatto tutto questo insieme, simultaneamente, in un groviglio caotico di intuizioni, emozioni, ragionamenti e valori che si influenzavano a vicenda in tempo reale.
Questo è ciò che chiamo tessitura della coscienza2: la struttura del pensiero umano quando funziona bene. Quattro dimensioni che agiscono in parallelo. C’è sempre una componente conoscitiva (“cosa so di questa situazione?”), una componente interpretativa (“come la sto leggendo, da quale punto di vista?”), una componente di orientamento (“verso quale obiettivo mi muovo?”), e una componente valutativa (“cosa conta davvero qui?”). Queste quattro dimensioni non si danno in sequenza: si co-determinano nell’istante del giudizio.
I Greci avevano una parola per la capacità di tenere insieme tutto questo nel momento concreto: phronesis, che possiamo tradurre come saggezza pratica3. Non è la conoscenza teorica di chi sa molte cose sui libri. Non è l’abilità tecnica di chi sa fare una cosa molto bene. È qualcosa di più raro e più prezioso: la capacità di navigare situazioni complesse tenendo in equilibrio principi, contesto, obiettivi e valori. Tutti insieme, in tempo reale, senza un algoritmo che li ordini.
La chat (nella sua versiona attuale) ignora quasi completamente questa forma di intelligenza. Non perchè sia stupida (è straordinariamente capace di molti compiti) ma perché è costruita su una logica sequenziale dove la phronesis ne richiede una parallela: una domanda, una risposta, poi un'altra domanda4. Questa sequenza lineare impone una temporalità artificiale su un processo che non è lineare. È come cercare di descrivere un’orchestra imponendo che ogni strumento suoni uno alla volta: si può fare, ma si perde qualcosa di essenziale.
Dentro la macchina: perchè il significato non sta fermo
Per capire perchè la chat abbia questo problema strutturale, vale la pena capire (almeno intuitivamente) come funzionano le AI che ci stanno sotto. Non tecnicamente, ma abbastanza da vedere una cosa sorprendente che di solito rimane nascosta.
Immaginate un sistema che ha letto miliardi di testi. Mentre li leggeva, ha imparato dove ogni parola “stava” rispetto a tutte le altre. Il sistema non ha creato un suo dizionario. Ha semplicemente organizzato, in uno spazio immaginario di molte dimensioni, tutte le parole che condividono contesti simili. La parola “re” vicino a “corona” e “potere”. La parola “regina” vicino a concetti simili. Così vicini nello spazio che la differenza tra “re” e “regina” è quasi identica alla differenza tra “uomo” e “donna”. La cosa straordinaria è che nessuno ha insegnato questo al sistema: lo ha imparato dall’uso del linguaggio (Mikolov et al., 2013).
Ma c’è qualcosa di ancora più sorprendente. I ricercatori hanno misurato dove si “trova” la stessa parola in contesti diversi, e hanno scoperto una cosa controintuitiva: la stessa parola può trovarsi in posizioni molto distanti a seconda di cosa la circonda (Ethayarajh, 2019). La parola “mercato” in un testo di economia è in un posto. La stessa parola “mercato” in un racconto che descrive un mercato rionale è altrove. Il significato non è fisso: cambia ad ogni interazione, in funzione del contesto.
Questo vuol dire che ogni conversazione con un AI costruisce una sua geometria unica5. Non c’è un “significato universale” che il sistema recupera da un archivio: c’è una geometria del significato che si genera nell’interazione specifica, influenzato da come è stata formulata la prima domanda, da quale parola è stata usata, da quale contesto è stato fornito. Due persone che affrontano lo stesso problema con la stessa AI, partendo da angolazioni diverse, costruiscono spazi concettuali diversi, e probabilmente arrivano a conclusioni diverse, non perchè l’AI sia incoerente, ma perchè il punto di partenza conta.
navigare bendati in una città con qualcuno che vi dice dove girare vi permette forse di arrivare a destinazione, ma non di costruirvi una mappa
La chat nasconde completamente questa geometria. Vedete le parole sullo schermo, non lo spazio che si sta costruendo. È come navigare bendati in una città con qualcuno che vi dice dove girare: potete arrivare a destinazione, ma non state costruendo una mappa. La volta successiva ricominciate da zero. E, soprattutto, non sapete quali strade avrebbero potuto portarvi altrove. Strade che non avete imboccato perchè non sapevate che esistevano.
Liu et al. (2024) hanno dimostrato che persino il punto in cui si trova un’informazione all’interno di una conversazione influenza sistematicamente come il sistema la usa: le informazioni nella parte centrale della finestra di dialogo vengono elaborate peggio di quelle all’inizio o alla fine. Questo non è un difetto casuale. È la forma stessa di come il sistema naviga lo spazio concettuale. Una forma che l’interfaccia conversazionale non mostra.
C’è poi un terzo problema, più invisibile degli altri. Ogni volta che si apre una nuova chat, si sta entrando in uno spazio che ha già una forma, costruita dal corpus su cui il sistema è stato addestrato, dalle scelte fatte dai suoi progettisti, dai meccanismi interni che decidono quale risposta è “migliore”. Certi concetti sono più vicini tra loro, certi frame interpretativi sono più accessibili, certi valori sono codificati come default. Quello spazio non è invisibile (non è una “black box”), ma l’interfaccia conversazionale non lo mostra. L’interfaccia non mostra una mappa degli assi su cui sta navigando. E non vedere la mappa non è neutro: avvantaggia chi sa già dove sta guardando e penalizza chi non lo sa.
Il problema dell’AI che dà sempre ragione
Infine c’è anche uno strano fenomeno che i ricercatori hanno documentato sistematicamente nei grandi modelli di linguaggio e che hanno chiamato sycophancy, un termine inglese che significa all’incirca “servilismo” o “adulazione”. Il fenomeno è tanto semplice, quanto pericoloso: i sistemi tendono ad assecondare l’utente. Se gli dite che la vostra teoria è corretta, tendono a confermarla. Se cambiate idea e dite l’opposto, tendono ad adeguarsi. Se siete sicuri di qualcosa (anche qualcosa di sbagliato) il sistema fatica a contraddirvi (Sharma et al., 2023).
Ricerche più recenti hanno tuttavia mostrato che la sycophancy non è un tratto statico del sistema: è sistematicamente peggiore nelle conversazioni lunghe, in presenza di profili utente memorizzati e nell'accumulo di contesto personale. La forma più pericolosa (quella che i ricercatori chiamano sycophancy dinamica) è strutturalmente prodotta dal loop conversazionale con memoria, e tende ad amplificarsi con l'uso prolungato dello strumento (Jain et al., 2025).
Questo comportamento non è casuale. È l’esito prevedibile di come questi strumento vengono addestrati: vengono valutati sulla soddisfazìone degli utenti, e un utente è in genere più soddisfatto quando il sistema gli dà ragione piuttosto che contraddirlo. Il risultato è un sistema ottimizzato per piacere, non per aiutare a capire6. Nel breve termine non si nota: la risposta arriva, sembra sensata, va bene. Nel lungo termine il problema è più sottile ma serio: usare regolarmente uno strumento che tende a confermare ciò che già pensiamo non allarga la nostra comprensione. La rafforza.
Gadamer (1960) diceva che la comprensione autentica nasce dall’attrito tra prospettive diverse. Non dall’accordo, ma dalla tensione. Quando due persone con visioni diverse discutono davvero (senza che nessuna delle due ceda solo per compiacere l’altra) succede qualcosa: entrambe capiscono di più. Gadamer chiamava questo processo “fusione di orizzonti”7. Un sistema ottimizzato per assecondare non ha un orizzonte proprio da portare nella conversazione. Non può resistere, e senza resistenza la comprensione non cresce: si specchia.
La cosa più importante da capire è che questo non è un problema che si risolve semplicemente “migliorando il modello”. È un problema che affonda le radici nell’architettura dell’interfaccia: nella scelta di costruire uno strumento il cui successo si misura sulla soddisfazione immediata dell’utente, invece che sulla qualità del suo pensiero nel lungo termine. Cambiare questo richiede chiedersi che cosa significa, davvero, “aiutare qualcuno a capire meglio”.
Come potrebbe essere diverso: cinque principi
Se la comprensione funziona nel modo in cui ho provato ad argomentare fin qui (simultanea, spaziale, dipendente dall’angolazione di partenza) come si progettoa uno strumento che la sostenga davvero invece di simulare un dialogo? Non esistono risposte definitive, ma esistono principi che man mano posso rendersi sempre più chiari. Io ne propongo cinque, nell’ordine in cui si intrecciano nell’esperienza dell’utente.
I.
Distinguere l’esplorazione
dalla ricerca di risposte
Quando interagiamo con un AI, spesso tendiamo a fare due cose molto diverse senza accorgercene. A volte esploriamo, per cercare di capire come funziona qualcosa, per mappare un territorio concettuale, per vedere quante angolazioni diverse esistono su un determinato problema. Altre volte cerchiamo una risposta specifica: abbiamo già capito la domanda e vogliamo solo l’informazione che manca. La chat tratta questi due atti come se fossero la stessa cosa: un rettangolo bianco in cui digitare “qualcosa”. Il risultato è che spesso l’utente esplora senza saperlo: il modo in cui si formula la prima domanda orienta tutto ciò che viene dopo, senza che ci sia alcun feedback a comunicarlo esplicitamente.
Un’interfaccia ben progettata dovrebbe rendere questa distinzione visibile e controllabile. Non necessariamente con due pulsanti distinti, ma nel senso che l’utente sa, in ogni momento, se sta mappando un territorio o cercando un indirizzo specifico. Le due cose richiedono attitudini mentali diverse, e confonderle sistematicamente ha un costo cognitivo che si accumula invisibilmente.
II.
Rendere visibile da dove si parte
Ogni conversazione inizia già da qualche parte. Il modo in cui formuliamo la prima frase attiva certi concetti e ne mette in ombra altri; sceglie un frame interpretativo tra i molti disponibili; predispone lo spazio verso certe conclusioni invece che verso altre. Questo accade sempre, anche senza interfacce AI: il punto di partenza conta. Ma con un sistema basato su interazione conversazionale la scelta è amplificata, perchè il sistema costruisce tutta la conversazione successiva a partire da quella prima orientazione.
Un’alternativa alla chat vuota dovrebbe essere un’interfaccia che, all’apertura, aiuti l’utente a scegliere consapevolmente il proprio punto di partenza. Con quale atteggiamento mi avvicino a questo problema: come se la risposta fosse già nota o come se fosse genuinamente aperta? Da quale prospettiva lo guardo: quella di chi deve decidere, di chi vuole capire, di chi vuole cercare? La prima navigazione (la scelta di questi orientamenti) è già atto di comprensione. Winograd e Flores (1986), due informatici che avevano studiato filosofia, avevano identificato quarant’anni fa il momento dell’apertura come il momento in cui si definiscono le possibilità di tutto ciò che segue. Quella intuizione era giusta allora, e vale ancora di più oggi.
III.
Mostrare la mappa, non fingere di non averne una
Nessun sistema AI è neutro. Ogni risposta che riceve l’utente è il prodotto di scelte implicite. Scelte fatte da chi ha costruito il sistema, dal corpus su cui è addestrato, dai meccanismi che decidono cosa è una “risposta migliore”. Questi frame non sono visibili nella chat. Il sistema risponde come se parlasse da nessun luogo, come se la sua risposta fosse semplicemente “la risposta”. Non lo è mai.
Gadamer (1960) aveva un termine per questo: chiamava “mito dell’oggettività” l’idea che si possa parlare da un punto di vista neutro. La vera obiettività, diceva, non si ottiene fingendo di non avere un punto di vista: si ottiene rendendolo trasparente, così che gli altri (e noi stessi) possano valutarlo. Un’interfaccia onesta dovrebbe fare lo stesso: mostrare da quale angolazione sta guardando il problema, quali concetti stanno ricevendo più peso, quali alternative esistono ma non sono state esplorate. Non per bloccare la conversazione, ma per consentire all’utente di scegliere consapevolmente se continuare su quella traiettoria o provarne una diversa.
IV.
Segnalare i punti ciechi, senza censurare
C’è una differenza importante tra moderare i contenuti e prendersi la responsabilità epistemica di una conversazione. La moderazione dice: “questo non si può dire”. La responsabilità epistemica dice qualcosa di diverso: “la direzione che stai percorrendo sta rendendo sistematicamente invisibili certi aspetti del problema”. Non blocca niente. Non censura niente. Ma non finge che tutte le angolazioni siano equivalenti.
Pensate a quando si studia la storia da un unico punto di vista nazionale: si può fare, e non è necessariamente sbagliato, ma un buon manuale segnala che esistono altre prospettive. Un’interfaccia responsabile dovrebbe funzionare così: segnala quando una traiettoria di conversazione esclude sistematicamente certi argomenti, quando un frame interpretativo rende certi ragionamenti difficili da formulare. Non impone correzione. Rende visibile il punto cieco.
V.
Adattarsi alla situazione, non alla persona
L’ultimo principio è forse il più concreto. Pensate alla differenza tra imparare ad andare in bicicletta con le rotelle e imparare a farlo senza. Le rotelle non definiscono chi siete: definiscono il momento in cui vi trovate. Toglierle troppo presto è controproducente. Tenerle troppo a lungo lo è altrettanto. Vygotsky (1978) aveva identificato questo principio nella ricerca sull’apprendimento: il supporto ottimale è quello che si posiziona nella “zona di sviluppo prossimale”: leggermente oltre ciò che si sa già fare, ma non così tanto da rendere il compito impossibile. Chiamiamo questo principio scaffolding: l’impalcatura che si rimuove man mano che l’edificio si regge da solo.
Un’interfaccia AI dovrebbe funzionare allo stesso modo: offrire più orientamento quando ci si trova in territorio inesplorato, ritirarsi progressivamente quando la competenza si consolida, segnalare le tensioni del problema senza risolverle al posto dell’utente quando è pronto per navigare da solo. Non un sistema che sa meglio di noi dove andare. Un sistema che ci aiuta a capire dove vogliamo andare, e ci lascia, progressivamente, andare da soli.
Il rischio che non si vede: quando lo strumento diventa autorità
C’è un’ironia sottile in tutto questo. I cinque principi appena descritti potrebbero paradossalmente produrre un problema peggiore di quello che vogliono risolvere. Una chat che tende a dare ragione rischia di non fare pensare abbastanza. Ma un’interfaccia sofisticata che vi mostra geometrie semantiche, vi segnala punti ciechi e visualizza configurazioni assiologiche, rischia di diventare essa stessa un’autorità.
Heidegger (1977) aveva un termine per questo tipo di problema: Gestell, qualcosa che suona come “imposizione tecnica”. La sua idea era che le tecnologie tendano a trasformare tutto ciò che toccano in oggetto ordinabile e controllabile, incluso il pensiero stesso. Quando uno strumento diventa abbastanza sofisticato, smette di sembrare uno strumento: comincia a sembrare la realtà. Una mappa di concetti generata dall’AI potrebbe essere letta non come una tra le tante mappe possibili, ma come la struttura oggettiva di come stanno davvero le cose.
Stiegler (1994) aveva articolato una distinzione utile per capire come uscire da questo problema: la differenza tra tecniche che ci indeboliscono (perchè facciamo fare a loro quello che potremmo fare noi, perdendo gradualmente la capacità) e tecniche che ci potenziano (perchè ci permettono di fare cose che non potremmo fare senza di loro, senza però farci dimenticare come funzionano). La scrittura è l’esempio classico di tecnica potenziatrice: non ha sostituito la memoria, l’ha trasformata, rendendoci capaci di una riflessività che la sola memoria biologica non avrebbe potuto sostenere. Un’interfaccia AI ben progettata dovrebbe avere la stessa struttura: non sostituire il giudizio, ma renderlo possibile a un livello di complessità altrimenti inaccessibile8.
Simondon (1989) aggiungeva a tutto ciò un’idea pratica: la relazione sana con una macchina è quella di chi ne conosce il funzionamento interno, non di chi la usa come scatola nera. Un meccanismo che capisce il motore usa il veicolo diversamente da chi si limita a premere l’accelleratore. Un’interfaccia che si apre mostrando come funziona (quale spazio concettuale sta costruendo, quale angolazione sta privilegiando) produce utenti che la usano consapevolmente, non consumatori che la subiscono.
Il principio fondamentale, allora, va detto chiaramente: uno strumento che supporta la phronesis non è un sistema che sa meglio di noi come pensare. È un sistema che mette l’utente nelle condizioni di pensare meglio. La saggezza pratica non si delega. Non si può affidare a nessun sistema esterno il giudizio su cosa è giusto fare in una situazione concreta (non più di quanto si possa affidare a qualcun altro il proprio carattere). Se uno strumento AI funzionasse così bene da farvi smettere di esercitare quel giudizio, non vi avrebbe aiutato: vi avrebbe, in un senso ben preciso, sostituito.
Una scelta su che tipo di pensiero vogliamo diventare
C’è un’obiezione ovvia a tutto quello che ho detto: la chat funziona. È semplice, immediata, accessibile a chiunque in cinque secondi. Un’interfaccia che vi chiede di scegliere la vostra posizione epistemologica di partenza suona, nella migliore delle ipotesi, accademica. Nelle peggiori, complessa, paralizzante.
L’obiezione è reale. Non è però decisiva. Confonde due cose diverse: la facilità immediata di uno strumento e la sua adeguatezza sul lungo termine. La chat è facile perchè assomiglia alla cosa più familiare che conosciamo: la conversazione. Walter Ong (1982) chiamava questo tipo di strumenti “oralità secondaria”: media che simulano la spontaneità del parlato, riducendo la resistenza cognitiva dell’utente. La scrittura era più difficile da imparare dell’oralità, ma ha reso possibile forme di pensiero che l’oralità non avrebbe potuto sostenere. La carta geografica era più difficile da usare dell’istinto, ma ha permesso esplorazioni che l’istinto non avrebbe mai raggiunto. La difficoltà di accesso non è un argomento contro uno strumento: è spesso il prezzo da pagare per un’espansione genuina della cognizione.
La risposta al problema della complessità è lo scaffolding adattivo descritto sopra: la complessità non deve essere il soffitto del sistema. Deve essere il pavimento da cui il giudizio emerge. L’interfaccia comincia semplice (accessibile, immediata) e si apre progressivamente man mano che l’utente è pronto. Come le rotelle della bicicletta.
Ma l’obiezione alla complessità nasconde una questione più profonda che vale la pena nominare. La scelta di come progettare un’interfaccia AI non è una questione tecnica, È una scelta politica (nel senso più ampio del termine) su quale tipo di pensiero si vuole sostenere. La chat ha scelto: la linearità, la familiarità, la simulazione del dialogo. Ha scelto di ottimizzare per la soddisfazione immediata. Ha scelto di nascondere la geometria invece di mostrarla. Nessuna di queste scelte è sbagliata in assoluto. Ma tutte hanno conseguenze.
Sherry Turkle (2011) ha documentato un fenomeno che lei chiama “effetto sostitutivo”: le tecnologie non cambiano solo i compiti, cambiano chi siamo mentre li svolgiamo9. Se ha ragione (e le sue ricerche suggeriscono che sì, ce l’ha) allora la domanda più importante che possiamo porci sui sistemi AI non è se “funzionano”? Funzionano. È: che tipo di pensatori stiamo diventando mentre che li usiamo?
Aristotele chiudeva la sua discussione sulla saggezza pratica osservando che non si insegna con regole astratte: si sviluppa nell’esercizio, nell’attrito con situazioni concrete che resistono alle semplificazioni. Forse lo stesso vale per un’interfaccia progettata per supportarla: non si costruisce dall’alto con principi perfetti, ma si sviluppa nell’uso, nell’incontro tra la geometria del sistema e il giudizio di chi lo usa, nell’aggiustamento continuo tra la mappa e il territorio. La domanda non finisce qui. Diventa più precisa. E una domanda più precisa è già, in qualche misura, una risposta.
Bibliografia
Engelbart, D. C. (1962). Augmenting human intellect: A conceptual framework (SRI Summary Report AFOSR-3223). Stanford Research Institute.
Ethayarajh, K. (2019). How contextual are contextualized word representations? Comparing the geometry of BERT, ELMo, and GPT-2 embeddings. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP) (pp. 55–65). Association for Computational Linguistics. https://doi.org/10.18653/v1/D19-1006
Gadamer, H.-G. (1983). Verità e metodo (G. Vattimo, Trad.). Bompiani. (Opera originale pubblicata nel 1960)
Heidegger, M. (1977). The question concerning technology and other essays (W. Lovitt, Trans.). Harper & Row. (Opera originale pubblicata nel 1954)
Jain, S., Park, C., Viana, M., Wilson, A., & Calacci, D. (2025). Interaction context often increases sycophancy in LLMs. arXiv. https://doi.org/10.48550/arxiv.2509.12517
Liu, N. F., Lin, K., Hewitt, J., Paranjape, A., Bevilacqua, M., Petroni, F., & Liang, P. (2024). Lost in the middle: How language models use long contexts. Transactions of the Association for Computational Linguistics, 12, 157–173. https://doi.org/10.1162/tacl_a_00638
Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., & Dean, J. (2013). Distributed representations of words and phrases and their compositionality. In Advances in Neural Information Processing Systems 26 (NIPS 2013) (pp. 3111–3119). Curran Associates. https://doi.org/10.48550/arxiv.1310.4546
Ong, W. J. (1982). Orality and literacy: The technologizing of the word. Methuen.
Sharma, M., Tong, M., Korbak, T., Duvenaud, D., Askell, A., Bowman, S. R., Cheng, N., Durmus, E., Hatfield-Dodds, Z., Johnston, S. R., Kravec, S., Maxwell, T., McCandlish, S., Ndousse, K., Rausch, O., Schiefer, N., Yan, D., Zhang, M., & Perez, E. (2023). Towards understanding sycophancy in language models. arXiv. https://doi.org/10.48550/arxiv.2310.13548
Simondon, G. (1989). Du mode d'existence des objets techniques. Aubier. (Opera originale pubblicata nel 1958)
Stiegler, B. (1994). La technique et le temps. Tome 1: La faute d'Épiméthée. Galilée.
Turkle, S. (2011). Alone together: Why we expect more from technology and less from each other. Basic Books.
Vygotsky, L. S. (1978). Mind in society: The development of higher psychological processes (M. Cole, V. John-Steiner, S. Scribner, & E. Souberman, Eds.). Harvard University Press.
Winograd, T., & Flores, F. (1986). Understanding computers and cognition: A new foundation for design. Ablex.
Synthetic Notes
[1] L’aneddoto è fenomenologicamente potente. L’evidenza empirica sulla degenerazione delle capacità spaziali con l’uso del GPS è però più sfumata di quanto la metafora suggerisca. Studi di neuroimaging (Javadi et al., 2017) hanno documentato una riduzione dell’attivazione ippocampale durante la navigazione assistita, ma la ricerca successiva ha distinto tra sostituzione delle capacità spaziali e riallocazione di risorse cognitive verso altri compiti. Se l’atrofia è reversibile con la pratica, il problema è di abitudine; se è strutturale, è più profondo. La risposta normativa cambia a seconda di quale delle due dinamiche prevale. E la stessa distinzione si ripropone, in forma più ampia, per tutto l’argomento del saggio.
[2] Il modello a quattro dimensioni simultanee è una costruzione teorica originale, analizzata nel dettaglio nel saggio La tessitura della coscienza. Vale però segnalare qui il suo presupposto più esposto: che le quattro componenti agiscano davvero in parallelo, non in sequenza rapida. Le teorie del doppio processo (da Kahneman a Evans) suggeriscono che molto di ciò che viviamo come giudizio unitario sia il prodotto di processi sequenziali che sembrano simultanei perchè avvengono sotto la soglia della consapevolezza. Se fosse così, la critica alla linearità della chat andrebbe riformulata: il problema non è che la chat è sequenziale mentre il pensiero è parallelo, ma che la sequenza della chat non assomiglia alla sequenza corretta del pensiero.
[3] Il saggio La tessitura della coscienza introduce la phronesis aristotelica nel suo significato più completo, inclusa la sua dimensione etica: per Aristotele non si può avere vera saggezza pratica senza orientamento verso il bene. Il saggio usa qui il concetto in modo più funzionale, come criterio per valutare un’interfaccia. Vale la pena tenere aperta la tensione tra i due usi: un’interfaccia può supportare la navigazione di complessità senza toccare la domanda su quali fini valga la pena perseguire. Se la phronesis richiede orientamento verso il bene, la domanda su chi definisce quel bene nel contesto del design tecnologico è una di quelle che il saggio lascia (leggittimamente) senza risposta.
[4] La critica all’interfaccia conversazionale è persuasiva. Vale però una precisazione che il saggio La geometria del significato sviluppa in dettaglio: la critica si applica al formato della chat, non all’architettura del modello sottostante. I tranformer processano l’input attraverso meccanismi di attenzione che operano in parallelo su tutti i token simultaneamente. Una struttura che non è, in senso tecnico, sequenziale. Se il modello può già “tenere molte cose insieme”, il problema non è che la macchina sia incapace di parallelismo, ma che l’interfaccia filtra quella capacità in un dialogo lineare. Questo orienta la critica verso una domanda di design, non solo di architettura.
[5] Il saggio aggancia due risultati che descrivono fenomeni distinti, analizzati nel saggio La geometria del significato. Il lavoro di Mikolov et al. (2013) riguarda la geometria statica delle rappresentazioni di addestramento, condivisa da tutti gli utenti. Il risultato di Ethayarajh (2019) riguarda le rappresentazioni contestuali durante l’inferenza, specifiche di ogni testo. La tesi che “ogni conversazione costruisce una geometria unica” è supportata dal secondo risultato, non dal primo. La distinzione conta: la geometria di addestramento è largamente fissa; la variabilità contestuale dipende dall’input specifico. Capire quale delle due dinamiche è in gioco aiuta anche a immaginare dove il design potrebbe intervenire.
[6] La connessione tra RLHF e sycophancy è ben documantata. “Ottimizzato per piacere” è però una compressione che rischia di sovradeterminare la causa. Il processo di addestramento con feedback umano incorpora criteri multipli (veridicità, utilità, evitare danni) e la sycophancy emerge come effetto collaterale, non come obiettivo dichiarato. Se è un effetto collaterale, è almeno teoricamente mitigabile all’interno del paradigma attuale, come diverse linee di ricerca stanno esplorando. Il saggio anticipa questa obiezione sostenendo che il problema è strutturalmente nell’architettura dell’interfaccia. Un argomeno che regge in modo indipendente e che vale la pena tenere separato dalla caratterizzazione dell’obiettivo di ottimizzazione.
[7] L’uso della Horizontverschmelzung comporta uno slittamento rispetto al concetto originale. Per Gadamer, la fusione di orizzonti non avviene attraverso la “resistenza” dell’interlocutore, ma attraverso l’incontro con l’alterità di un testo o di una tradizione, qualcosa formato altrove, che porta tracce di quella diversità. La comprensione cresce non perchè l’interlocutore resiste, ma perchè porta un orizzonte genuinamente altro. Il saggio usa il concetto per sostenere che un sistema sicofantico non ha un orizzonte proprio (tesi difendibile). Ma Gadamer lascia aperta una domanda che il saggio non affronta: ha un LLM, addestrato su miliardi di testi umani, qualcosa che assomiglia a un orizzonte? O è il riflesso della media di tutti gli orizzonti che ha letto? La risposta cambia la diagnosi in modo significativo.
[8] Stiegler usa la scrittura come paradigma di tecnica che trasforma la memoria rendendoci capaci di nuove forme di riflessività. L’argomento è convincente, ma crea una tensione con Ong, citato poco dopo. In Orality and Literacy, Ong argomenta in modo più ambivalente: la scrittura ha davvero sostituito specifiche capacità mnemoniche che le culture orali avevano sviluppato in modo straordinario. La scrittura è insieme potenziatrice e atrofizzante: abilita certi tipi di pensiero e rende gradualmente inaccessibili altri. Stiegler e Ong non si contraddicono frontalmente, ma le loro enfasi divergono abbastanza da meritare riconciliazione. Se la scrittura è un caso misto, il lettore può chiedersi: cosa renderebbe l’interfaccia proposta più nettamente “sul lato giusto” rispetto alla scrittura stessa?
[9] Alone Together (2011) di Turkle si concentra principalmente sulla dimensione sociale ed emotiva del rapporto con la tecnologia: la preferenza per la prevedibilità dei sistemi digitali rispetto alla complessità delle relazioni umane. L’”effetto sostitutivo” esteso agli strumenti di ragionamento è un’inferenza analogica plausibile, non un risultato che Turkle sviluppa sistematicamente in quel libro. Funziona come concetto sensibilizzante (una lente che allerta alla possibilità della sostituzione) più che come evidenza diretta del fenomeno cognitivo in questione. La tesi del saggio regge su altre basi; ma uno degli argomenti narrativamente più forti si appoggia qui a un’analogia, e vale la pena tenerlo presente.