Go down

Scrivere con l'intelligenza artificiale, pensare attraverso i LLM, usare l'esomente: è trasformazione generativa o alienazione? È possibilità di pensare in modo diverso o perdita di controllo?

Può essere vissuta e interpretata in modi radicalmente diversi. E in questa divergenza apre un mondo di riflessioni: come stare nel presente, come fare critica strutturale del capitalismo digitale, come abitare la trasformazione senza né celebrarla né rifiutarla.

Serve una posizione che non sia né luddismo né entusiasmo acritico. Una critica che sappia restare dentro per pensare tatticamente, che usi Marx, Gramsci, Fanon per smontare i nuovi rapporti di produzione, le nuove forme di alienazione, il colonialismo epistemico che l'AI sta consolidando. Perché l'intelligenza artificiale non è una tecnologia neutra: è l'infrastruttura materiale e simbolica di una nuova fase del capitalismo. E va guardata in faccia, con gli strumenti del pensiero critico.

Pensare con l'AI per pensare contro l'AI. Senza fuggire.


Un articolo in forma di risposta (o viceversa)

Queste righe sono un articolo, ma sono anche una risposta. Ed un’occasione per chiarire ulteriormente e meglio alcuni pensieri e concetti intorno all’uso ed alla presenza, ormai pervasiva dei LLM e dell’Intelligenza Artificiale.

Calogero (Kalos) Bonasia ha ripreso qui in un suo scritto dal titolo eloquente ("Il culto dell'incompetenza artificiale") [1] un concetto tratto da un mio articolo sullo scrivere con i LLM. [2]

Bonasia mi cita testualmente: “ad un certo punto non capisco più se sto scrivendo o mi sto facendo scrivere”. E poi interpreta quella frase così: "è il momento in cui l'uomo diventa ghostwriter del sistema stesso, cedendo la propria voce al dispositivo che la replica. In questa simbiosi linguistica, la creatività non viene potenziata ma assorbita: il soggetto non si serve più della tecnologia, ne diventa materiale linguistico."

La citazione è corretta. Ma nel mio articolo, quella stessa frase continuava: "Ma la differenza, forse, a ben vedere, non conta più così tanto." E si chiudeva con: "Importa che insieme riusciamo ad arrivare dove da solo non arriverei. E questo, che mi piaccia o no, è già abbastanza reale."

Non sto dicendo in assoluto che Bonasia mi abbia travisato. Sto dicendo che ha letto quella frase in un modo che io non riconosco interamente come mio. E questo è interessante. Perché significa che la stessa esperienza – scrivere con l'AI, pensare attraverso quello che ho chiamato l'esomente – può essere vissuta e interpretata in modi profondamente diversi.

Riconoscere la critica strutturale

L'articolo non è una critica superficiale e non cita solo le mie parole. Quindi non voglio semplificare il pensiero di Bonasia. Il suo pensiero non è un "l'AI non funziona bene, voglio i soldi indietro". È una critica culturale del capitalismo digitale. Parte dalle auto elettriche che nascondono centrali a carbone, dai sistemi operativi che consumano gigabyte per fare quello che una volta si faceva in kilobyte, dagli smartwatch che bruciano megawatt per dirci che ore sono. [3]

Il filo conduttore è preciso: "crescita quantitativa scambiata per progresso qualitativo". È una critica della cultura dello spreco, del mito dell'efficienza, del tempo colonizzato dalla produttività. Bonasia cita Günther Anders: "la tecnica non supera l'uomo in intelligenza, ma in irresponsabilità". E definisce gli LLM "dispositivi ideologici, non solo tecnologici".

E aggiunge: "Il tempo liberato non ritorna mai all'uomo: viene risucchiato dal sistema stesso che ce lo aveva 'regalato'. Ogni minuto sottratto alla fatica diventa un minuto reinvestito nella macchina della produttività."

Ha ragione. Completamente ragione. Questa non è critica economicista. È critica strutturale. È critica del sistema. E in molti punti – nella denuncia del tempo risucchiato, nella critica dell'automazione come ideologia, nella consapevolezza che stiamo parlando di rapporti di potere – sono d'accordo.

Ma c'è un punto in cui le nostre letture divergono. E quel punto è proprio la mia frase sul ghostwriting.

La divergenza: due modi di leggere la stessa esperienza

Bonasia legge quella frase come perdita. Come "cedere la propria voce". Come "la creatività assorbita". Come trasformazione dell'uomo in "materiale linguistico" del sistema.

Io l'avevo scritta come trasformazione generativa. Come attraversamento di una soglia. Come accettazione di una nuova condizione cognitiva in cui "non conta più così tanto" chi dei due sta scrivendo, perché quello che conta è arrivare dove da soli non si arriva. Non sto dicendo che la sua lettura sia sbagliata. Sto dicendo che è diversa dalla mia. E questa differenza non è tecnica – è politica, esistenziale, epistemologica.

Perché l'esomente – la mente esternalizzata – è ambigua per natura. È una soglia. Una zona di confine dove il pensiero si proietta fuori da sé, si trasforma e ritorna modificato. E questa trasformazione può essere letta in due modi:

Lettura 1: Perdo il controllo. Cedo la mia voce. Divento appendice della macchina. La mia creatività viene assorbita. Sono alienato. La risposta è resistere, preservare, tornare alla lentezza della penna.

Lettura 2: Attraverso una soglia. Penso attraverso un medium nuovo. Mi trasformo. Divento capace di cose che prima non erano possibili. Penso altrimenti. La risposta è abitare criticamente questa trasformazione senza né celebrarla né rifiutarla.

La scelta tra le due non è neutra. È una scelta su come stare nel presente. Bonasia sceglie la prima. Io scelgo la seconda. Entrambe le posizioni hanno una loro dignità. Entrambe partono da una critica del sistema. Ma divergono sul punto cruciale: cosa fare con gli strumenti che il sistema ci offre.

Perché scelgo di abitare la trasformazione

Non scelgo la seconda posizione perché sia ingenuo (o magari a volte sì, ma non su questo), o perché non veda i rischi. La scelgo perché credo che il compito del pensiero critico non sia difendere una posizione pura esterna al sistema – quella posizione non esiste e non è mai esistita – ma imparare a stare nella contraddizione senza risolverla in modo consolatorio.

Bonasia (e non solo lui) sembra dire: io mi tiro fuori, quindi sono a posto. Ma mi sa che non funziona così. Il ritiro individuale non protegge dall'impatto collettivo. Si vivrà comunque in un mondo dove gli altri usano l'AI, dove i processi aziendali la presuppongono, dove le dinamiche di potere si riconfigurano attraverso di essa. Le corporation che controllano questi modelli non soffriranno se alcuni utenti critici si ritirano. Chi si ritira perde voce, perde capacità di intervento, perde la possibilità di pensare tatticamente dentro il sistema. Si dirà: “certo, ma se lo facciamo tutti, qualcosa cambia”. Sì, in astratto e così, ma sappiamo tutti benissimo che non accadrà.

Infine, il ritiro ci priva della possibilità di "pensare con" lo strumento mentre lo si critica. E questa è la rinuncia più grave.

Marx non ha smesso di vivere nel capitalismo per criticarlo. Gramsci non ha rinunciato alla cultura borghese per denunciarne l'egemonia. La critica strutturale si fa dall'interno.

Stare nella tensione

Voglio essere onesto. Io uso i LLM tutti i giorni per lavoro serio: consulenze, corsi di formazione, scrittura, sviluppo di progetti. E mentre lo uso, penso: scrivo articoli critici sull'ideologia algoritmica, sulla biblioteca senza finestre, sul colonialismo digitale.

Questa è la condizione normale del pensiero critico nel presente. Il punto non è "usare o non usare". Il punto è: come usare mantenendo viva la capacità di pensare altrimenti?

Tempo fa ho tenuto un corso di formazione in una azienda sull’uso della AI e dei LLM. Ho scoperto qualcosa di curioso. Venti persone competenti. Gli ho chiesto di dialogare con il modello invece di dargli ordini: "Ditegli che non siete sicuri, che volete esplorare insieme le opzioni."

Risultato? Quasi nessuno ci è riuscito. Continuavano a dare ordini. "Genera una risposta." "Scrivi un messaggio." Comando-esecuzione, sempre.

Non era incomprensione. Era la grammatica del potere digitale che abbiamo nelle ossa. Per trent'anni abbiamo imparato: noi comandiamo, le macchine eseguono. Chiedere a una macchina "non so bene cosa fare, aiutami" era violare un tabù cognitivo.

Durante una pausa caffè una partecipante mi ha preso da parte e mi ha detto: "Sai cosa mi blocca? Se parlo con l'AI come parlerei con una persona e l'AI fa quello che so fare, poi cosa sono io?"

Ecco il cuore della resistenza. Non è paura che l'AI ci sostituisca nel fare. È paura che ci eguagli nel pensare. È una domanda esistenziale, identitaria.

E su questo punto – sul fatto che la relazione con l'AI mette in crisi l'identità del soggetto – io e Bonasia probabilmente concordiamo. La divergenza è su cosa fare con questa crisi: preservare l'identità minacciata o attraversare la trasformazione criticamente.

Sul tempo risucchiato

Ma c'è un punto su cui l'articolo tocca qualcosa di assolutamente cruciale. Scrive: "Il tempo liberato non ritorna mai all'uomo: viene risucchiato dal sistema stesso che ce lo aveva 'regalato'."

Ha ragione. Completamente ragione. Il tempo eventualmente risparmiato viene reinvestito nella macchina della produttività. È il paradosso dell'efficienza capitalista: ogni guadagno di tempo diventa occasione per produrre di più, non per vivere meglio.

Ma proprio questo mostra che il problema non è l'AI in sé. È il rapporto che abbiamo con il tempo, con il lavoro, con la vita. Un rapporto colonizzato dalla logica capitalista molto prima che arrivassero i LLM.

Io, quando Claude, ChatGPT, Gemini mi fanno risparmiare tempo, lo uso diversamente: per riposare, per stare con mia moglie, per pensare senza la pressione della produzione. Questa è una scelta politica, non tecnica. E non so quanti hanno la lucidità o il coraggio di fare lo stesso. Mi auguro molti.

Ho l’impressione che il problema non sia “lo strumento che ci inganna”. Il problema è che noi siamo già ingannati – su cosa significhi vivere, su cosa valga la pena fare col proprio tempo. E finché non affrontiamo questo, ogni strumento che ci "libera tempo" diventerà semplicemente un modo per lavorare di più.

Su questo, credo, potremmo essere d'accordo. La divergenza è su cosa fare: ritirarsi dagli strumenti o usarli diversamente?

Detto questo: i pericoli strutturali che vedo anch'io

Ma vorrei essere chiaro. Niente di quello che ho detto finora significa che io sia un entusiasta acritico. Al contrario. Vedo pericoli enormi, per alcuni versi quasi apocalittici.

E questi pericoli non sono effetti collaterali di una tecnologia mal implementata. Sono la manifestazione di qualcosa di più profondo: l'intelligenza artificiale, nella sua forma attuale di modelli linguistici proprietari controllati da poche corporation globali, non è una tecnologia neutra che produce effetti buoni o cattivi a seconda di come la si usa. È l'infrastruttura materiale e simbolica di una nuova fase del capitalismo – il capitalismo dei dati – che sta riconfigurando i rapporti di produzione, le forme di alienazione, le dinamiche di sfruttamento e le gerarchie globali in modi che richiamano, ma anche superano, le logiche del capitalismo industriale analizzate dalla critica marxiana.

L'AI istituisce nuovi rapporti di produzione

La "materia prima" dell'economia dei dati non è più il lavoro muscolare ma il tempo mentale, l'attenzione, le interazioni cognitive. Ogni volta che uso Internet, Google, Amazon, un qualunque LLM, produco dati: le mie abitudini di acquisto, le mie preferenze, i miei interessi, i miei pattern di pensiero, le mie esitazioni, il mio stile.

Chi possiede i mezzi di produzione di questi dati – le infrastrutture computazionali, i modelli addestrati, le piattaforme di accesso – controlla non solo la produzione economica ma la realtà rappresentabile, e quindi pensabile. Non è solo una questione di profitto. È una questione di potere epistemico: chi decide cosa è vero, cosa è rilevante, cosa è pensabile.

L'AI produce nuove forme di alienazione

Non siamo più alienati solo dal prodotto del nostro lavoro (come nella critica marxiana classica), ma dai nostri stessi pattern cognitivi. Le mie tracce comportamentali diventano materiale di addestramento per macchine che poi mi governano. C'è un corto circuito: io produco i dati che addestrano il sistema che poi mi media il pensiero. È alienazione al quadrato.

Ma c'è un secondo livello di questa alienazione, più sottile. Quando penso attraverso il dialogo con l'AI, io cambio: le mie strutture mentali si adattano, il mio linguaggio si contamina. La macchina, invece, resta identica. Non trattiene nulla di me, non si trasforma. È un'asimmetria trasformativa.

Ripetuta migliaia di volte, questa asimmetria produce una deriva. E allora emerge la domanda della reversibilità: cosa resta quando l'interfaccia si interrompe? Sono ancora capace di pensare senza?

L'AI riproduce e intensifica le gerarchie globali

C'è una nuova divisione internazionale del lavoro digitale. Il Nord globale usa l'AI per lavoro intellettuale e creativo. Il Sud globale fornisce il "lavoro digitale invisibile" – etichettatura dati, moderazione contenuti, produzione di codice a basso costo, spesso in condizioni lavorative disumane.

E il modello di Mondo che i LLM restituiscono è il Mondo Bianco, Occidentale, Anglofono, Dominante. Questo è quello che Fanon, ancora oggi, avrebbe chiamato colonialismo epistemico. Non è solo sfruttamento economico – è una dinamica che riarticola i meccanismi del colonialismo in forme epistemiche ancora più pervasive. Il potere di definire cosa è conoscenza, cosa è vero, cosa è pensabile.

L'AI rischia di chiudere lo spazio del pensiero antagonista

Ho parlato, in un altro articolo, della "biblioteca senza finestre". [4] I LLM sono sistemi chiusi, autoreferenziali. Non sono connessi al reale ma solo alla rete di relazioni statistiche tra testi. Operano attraverso "doxastic loop" – cicli di auto-conferma epistemica in cui le credenze si rinforzano su se stesse senza mai confrontarsi con il mondo esterno.

Questo non è un bug. È la loro natura. E ha conseguenze politiche immediate: se l'AI media sempre più le nostre interazioni cognitive e ci restituisce versioni sempre più raffinate di ciò che già crediamo, se l'ottimizzazione algoritmica premia la coerenza e la prevedibilità, se non c'è più un "fuori" da cui osservare il sistema, come possiamo pensare "altrimenti"? Come possiamo pensare "contro"?

Come si fa a pensare in modo antagonista quando lo strumento del pensiero ci riflette solo noi stessi?

Un'ipotesi: riattivare i classici

Per capire questi fenomeni – per nominarli, per contrastarli – potremmo immaginare un metodo che potremmo chiamare di riattivazione critica. Riattivare significa ri-prendere sul serio il pensiero critico del Novecento – Marx, Gramsci, Fanon, Foucault, Adorno, Benjamin – non come repertorio di citazioni ma come cassetta di attrezzi concettuali ancora validi.

Questi giganti del pensiero hanno smontato, ciascuno a suo modo, le ideologie del loro tempo: hanno mostrato come ciò che appariva naturale fosse in realtà storico, come ciò che si presentava come neutro celasse rapporti di dominio, come ciò che sembrava inevitabile fosse in realtà il prodotto di scelte e conflitti.

Cosa succederebbe se applicassimo questi strumenti all'ideologia algoritmica?

  • Se leggessimo l'economia dei dati attraverso le categorie marxiane di plusvalore, alienazione, feticismo della merce?
  • Se analizzassimo l'egemonia delle piattaforme attraverso il concetto gramsciano di egemonia culturale?
  • Se guardassimo alla divisione Nord/Sud del lavoro digitale attraverso la critica fanoniana del colonialismo?
  • Se studiassimo la governance algoritmica attraverso l'analisi foucaultiana del biopotere?

Non si tratta di forzare analogie, ma di vedere dove i concetti ancora mordono la realtà. E dove, invece, la realtà eccede i concetti e richiede nuove categorie.

Questo è il compito. E questo è anche il motivo per cui né il ritiro luddista né l'entusiasmo acritico sono posizioni adeguate. Servono critiche che sappiano stare dentro la trasformazione guardandola con gli occhi dei classici – ma sapendo anche che i classici non bastano, che il presente eccede sempre le categorie del passato, e che dobbiamo essere pronti a inventare nuovi linguaggi per nominare quello che ancora non ha nome.

E quindi? Ora che si fa, concretamente?

Non ho ricette, ovviamente. Ma qualche indicazione di metodo forse può venire in mente.

Primo: formazione critica. Non addestramento all'uso efficiente - quella è ideologia travestita da competenza - ma pratica collettiva dove imparare a dialogare invece di comandare, a stare nella tensione, a usare tatticamente mantenendo viva la domanda: cosa sto diventando attraverso questo uso?

Secondo: spazi di pensiero antagonista. Se l'AI rischia di chiuderci nella “biblioteca senza finestre”, servono pratiche che tengano aperte le finestre. Alfabetizzazione, culturale e digitale. Conversazioni faccia a faccia. Pensiero lento, contro l'ottimizzazione.

Terzo: documentare la trasformazione. Tenere traccia di come cambia il nostro pensiero, il nostro linguaggio. Non per fermare il cambiamento ma per renderlo visibile, interrogabile.

Quarto: tornare a fare politica su temi nuovi. I rapporti di produzione, le gerarchie globali, il colonialismo epistemico non si contrastano con scelte individuali ma con conflitto collettivo. Accesso ai modelli, trasparenza degli algoritmi, redistribuzione del valore.

Quinto: pensare coi classici. Marx, Gramsci, Fanon non danno risposte - il presente va sempre oltre le categorie del passato, non potrebbe essere altrimenti – ma danno un metodo, una lente: smontare ciò che appare naturale, mostrare i rapporti di potere dove si nascondono.

Sesto: dialogare. Tra chi usa e chi rifiuta. Tra chi vede trasformazione e chi vede perdita. Perché nessuna delle due posizioni, da sola, è sufficiente.


Note

[1] https://www.stultiferanavis.it/la-rivista/il-culto-dellincompetenza-artificiale-ovvero-perche-paghiamo-per-strumenti-che-ci-fanno-lavorare-di-piu

[2] https://www.stultiferanavis.it/la-rivista/quando-il-ghostwriter-sei-tu-scrivere-con-i-llm

[3] Se non fosse per la gestione delle immagini, dei flussi video, e, ovviamente, di internet, avrebbe ragione in pieno: nel 1989, il mio primo computer, era un piccolo Macintosh, 512 Kb di RAM, senza disco fisso e con il drive per i floppy da 800 Kb, su cui stavano comodamente sistema operativo, Word e il file della mia tesi di laurea.

[4] https://www.stultiferanavis.it/la-rivista/la-biblioteca-senza-finestre

Pubblicato il 28 ottobre 2025

Martino Pirella

Martino Pirella / Architetto delle relazioni cognitive | Consulente e formatore AI

mpirella@gmail.com