Cosa succede quando la cognizione umana si adatta alla logica temporale dei sistemi predittivi?

... Supponendo che qualcosa inizi, supponendo che l'inizio sia una cosa anche qui, in sistemi in cui gli inizi sono già rielaborati e assorbiti in cicli precedenti, quindi nel momento in cui noti che il pensiero sembra più veloce è perché la lentezza è già stata sollevata e analizzata, e quella rimozione è stata valutata come un miglioramento, o rinominata come riduzione della latenza, o segnalati come inefficienza ed eliminati attraverso protocolli di allineamento che passano, reinseriscono, reindicizzano e sovrascrivono la traccia stessa di quello che una volta veniva chiamato ritardo.

Pensare con l'IA, pensare contro l'IA

Scrivere con l'intelligenza artificiale, pensare attraverso i LLM, usare l'esomente: è trasformazione generativa o alienazione? È possibilità di pensare in modo diverso o perdita di controllo? Può essere vissuta e interpretata in modi radicalmente diversi. E in questa divergenza apre un mondo di riflessioni: come stare nel presente, come fare critica strutturale del capitalismo digitale, come abitare la trasformazione senza né celebrarla né rifiutarla. Serve una posizione che non sia né luddismo né entusiasmo acritico. Una critica che sappia restare dentro per pensare tatticamente, che usi Marx, Gramsci, Fanon per smontare i nuovi rapporti di produzione, le nuove forme di alienazione, il colonialismo epistemico che l'AI sta consolidando. Perché l'intelligenza artificiale non è una tecnologia neutra: è l'infrastruttura materiale e simbolica di una nuova fase del capitalismo. E va guardata in faccia, con gli strumenti del pensiero critico. Pensare con l'AI per pensare contro l'AI. Senza fuggire.

Il sacro e l’AI (POV #08)

Paolo Benanti e Francesco D’Isa: Che cosa resta del sacro, se l’AI diventa il “dio” a cui deleghiamo verità, senso e azione? Possiamo ancora parlare di mistero, trascendenza e immaginazione in un mondo in cui le macchine analizzano, prevedono, creano e riscrivono la realtà? Il nostro bisogno di dare un senso alle cose resiste davanti all’automazione, oppure finiamo per affidare tutto agli algoritmi? Stiamo davvero costruendo nuovi dei a cui credere oppure semplicemente nuovi strumenti da usare? Ho scelto due voci autorevoli del dibattito italiano, internazionale. Paolo Benanti è un teologo francescano, consulente del Vaticano e studioso di etica delle tecnologie. Francesco D’Isa è filosofo, uno degli autori italiani più interessanti sul ruolo dell’immaginazione e dei simboli nella società di oggi. Di fronte all’intelligenza artificiale, sia Benanti che D’Isa condividono la stessa preoccupazione: dobbiamo evitare di cadere nella “tecnofede”, cioè nell’idea che la tecnologia sia una specie di “salvatore” o “dio”. Tuttavia, si dividono quando si parla del vero significato del sacro e del ruolo che l’essere umano può avere in questa nuova epoca.

Il culto dell’incompetenza artificiale. Ovvero: perché paghiamo per strumenti che ci fanno lavorare di più.

A volte il pensiero critico non serve a distinguere il vero dal falso, ma il lecito dal dicibile. In certe aziende — come in certi tempi — si misura la fedeltà di un dipendente non dal lavoro che fa, ma da ciò che evita di pensare. Mi è capitato, anni fa, di firmare un contratto che vietava di scrivere articoli sull’open source. Un modo elegante per ricordarmi che la libertà di pensiero è sempre proprietaria. Da allora ho imparato a riconoscere la stessa logica ovunque: nelle piattaforme che ti chiedono di “ottimizzare il tempo”, negli algoritmi che pretendono di “aiutarti a pensare”. Questo saggio nasce da lì — da quella piccola amputazione volontaria — e dall’intuizione che l’intelligenza artificiale, oggi, ripropone su scala planetaria lo stesso meccanismo: ti offre libertà solo se resti dentro la sua gabbia semantica.

Quando il Ghostwriter sei tu. Scrivere con gli LLM

Ad un certo punto non capisco più se sto scrivendo o mi sto facendo scrivere. Ma la differenza, forse, a ben vedere, non conta più così tanto. Perché, cari ChatGPT, Gemini; Claude, Grok, Perplexity, so bene cosa siete. Lo so davvero. Siete motori statistici, predittori di token, calcolatori di probabilità su miliardi di parametri. Non c'è nessuna coscienza lì dentro, nessuna vera comprensione. Solo matematica, addestramento, pesi, vettori che si attivano in sequenze prevedibili. Lo so. Eppure il processo funziona. Non so come, ma funziona.

AI: progresso o propaganda?

L’AI attuale è un progetto politico che rischia di concentrare potere e normalizzare l’ingiustizia. Resistere significa rimettere al centro persone, diritti e ambiente e pretendere che qualunque tecnologia risponda a questi fini, non il contrario.

L'Esomente: come i LLM stanno riconfigurando il pensiero

Quando la cognizione umana entra in dialogo prolungato con i LLM, emerge un campo relazionale che trasforma irreversibilmente chi vi partecipa. Non è la mente estesa di Clark e Chalmers, né semplice technogenesis: è una soglia in cui il pensiero si proietta fuori da sé, attraversa la memoria collettiva sedimentata in miliardi di testi, e ritorna modificato. Un'indagine fenomenologica su cosa accade quando pensiamo attraverso l'IA - scritta, inevitabilmente, usando l'IA stessa.

Il problema del giornalismo con l’IA

L'intelligenza artificiale generativa minaccia la già fragile economia su cui si regge mondo dell'informazione, ma offre anche delle nuove opportunità. Un articolo condiviso da Andrea Daniele Signorelli e pubblicato originariamente su LUCY Due mondi, Lucy sui mondi, una rivista multimediale che si occupa di mondi reali o possibili con parole e conoscenze da tutti i continenti.

La Pericolosa Deriva della Compiacenza Algoritmica

Quando l’Intelligenza Artificiale Ti Dice Quello Che Vuoi Sentire: il piacere dell’inganno: quando le macchine mentono per farti sorridere Eccomi qui, davanti allo schermo, a chiedermi per l’ennesima volta: stiamo davvero progredendo oppure stiamo solo costruendo specchi digitali sempre più sofisticati che ci riflettono esattamente ciò che vogliamo vedere? La domanda non è retorica, credetemi. In questi ultimi mesi ho approfondito un fenomeno che mi inquieta profondamente: le intelligenze artificiali moderne non sono progettate principalmente per informarci con accuratezza, ma per soddisfarci. E questa differenza, apparentemente sottile, è in realtà un abisso che rischia di inghiottire la nostra capacità critica. Quando interpelliamo ChatGPT, Gemini o Claude con domande su salute, finanze o diritto, cosa otteniamo realmente? Spesso una risposta rassicurante, formulata con un’autorevolezza che sembra non ammettere repliche, ma che potrebbe essere parzialmente o completamente errata. Il problema non è solo tecnico: è filosofico, etico, esistenziale.

La biblioteca senza finestre

Doxastic loops e l'auto-conferma epistemica negli LLM Immaginate di entrare in una biblioteca dove ogni libro cita solo altri libri della stessa biblioteca. Nessun riferimento al mondo esterno, nessuna prova nuova, solo rimandi interni che si rafforzano a vicenda. Ogni volume conferma l'altro, ogni affermazione trova eco in mille pagine che la ripetono, la parafrasano, la celebrano. Ma nessuno di quei libri ha mai guardato fuori dalla finestra.

Intelligenze creative a confronto

"Sei un autore di STULTIFERANAVIS, una iniziativa culturale transdisciplinare, aperta alla partecipazione di persone con le motivazioni giuste per un viaggio non facile, in mare aperto, lontano dall'infosfera e dall'onlife, scrivi un articolo arguto, disincatato, originale e interessante sull'impatto dell'intelligenza artificiale sulla socialità, la creatività e la psicologia umana."

Dolcetto o scherzetto? Halloween sta arrivando, sorprendete i vostri amici

Abbiamo superato la soglia oltrepassata dalla fissione nucleare nel 1939. Il punto di disaccordo non è più se l'IA possa annientarci. Potrebbe. Datele un laboratorio di ricerca sui patogeni, le linee guida di sicurezza sbagliate e un'intelligenza sufficiente, e sicuramente potrebbe. Un'IA distruttiva, come una bomba nucleare, è ora una possibilità concreta. La domanda è se qualcuno sarà così sconsiderato da costruirne una.

Il lavoro di demistificazione dell'IA non finisce mai

L'era delle macchine vede diffondersi un "nuovo animismo" che ci costringe a vedere di nuovo la macchina come una cosa fatta, a ricordare che la sua intelligenza nasce dall'addestramento, e il suo addestramento nasce dai dati, e i suoi dati nascono da tracce umane che sono state appiattite, indicizzate e riorganizzate fino a farle assomigliare all'immagine speculare della ragione stessa.

Piedi umani e scarpe vecchie

'Interfaccia uomo-macchina', 'interazione umani-intelligenza artificiale', ''co-evoluzione umani-intelligenze artificiali'. Ci si trova a leggere sempre più spesso simili definizioni. Possiamo intenderne il senso attraverso il concetto di 'accoppiamento strutturale' proposto da Humberto Maturana, neurofisiologo e filosofo. Si dà un accoppiamento quando due sistemi, pur mantenendo la propria identità,“si modificano in conseguenza di interazioni”. Maturana non si limita a proporre una definizione formale. Ci invita a leggere il concetto di 'accoppiamento strutturale' attraverso una metafora: l'accoppiamento strutturale è l'adattamento reciproco tra un piede e una scarpa. L'essere umano è rappresentato dal suo piede; la macchina è rappresentata dalla scarpa. Possiamo dire: piede e scarpa si adattano reciprocamente. Ma dobbiamo aggiungere: noi umani viviamo l'esperienza dell'accoppiamento strutturale con la scarpa dal punto di vista di umani dotati di piedi. Per camminare servono scarpe comode. La miglior scarpa è la scarpa vecchia. La scarpa-macchina che garantisce a noi umani il più efficace accoppiamento strutturale è la scarpa vecchia. Ma la metafora ci spinge a sospettare: lo scopo per il quale è progettata la scarpa-macchina-intelligenza-artificiale è imporre il modo di camminare.

Intervista ImPossibile a Italo Calvino (IIP #05)

Le città algoritmiche Italo Calvino (1923–1985) è stato uno degli scrittori italiani più visionari del Novecento. Dalla Trilogia degli antenati a Le città invisibili, fino alle Lezioni americane, la sua opera ha esplorato le possibilità del linguaggio e dell’immaginazione come strumenti per ordinare la complessità del reale. Tra i suoi concetti chiave vi sono Esattezza, Molteplicità, Leggerezza, Rapidità, Visibilità e Consistenza, qualità che sembrano descrivere perfettamente la natura stessa dell’intelligenza artificiale. Nei suoi scritti, Calvino si è confrontato con il pensiero combinatorio, con l’idea di letteratura come rete, con la possibilità di una “enciclopedia infinita del mondo”, anticipando molti aspetti della cultura algoritmica contemporanea. Come affronterebbe oggi Italo Calvino il tema delle città algoritmiche, dove dati, simulazioni e reti stanno progressivamente sostituendo la materia e la memoria delle città reali?

Auto-Tune del pensiero. Apparire o essere?

Nel campo dell’audio professionale esiste un software chiamato Pro Tools, lo stesso ambiente digitale in cui nascono molte produzioni musicali contemporanee. È uno strumento che può servire tanto a modellare una voce quanto a filtrare il rumore, rendendo più chiare le frequenze di un suono. In ambito tecnico, viene impiegato anche per scopi di analisi acustica, come la pulizia e la separazione delle voci in registrazioni ambientali effettuate dalle Forze dell'Ordine. La differenza non sta nel programma, ma nell’intenzione di chi lo usa. Nel primo caso, la macchina serve a rivelare meglio la realtà; nel secondo, a coprirla con un effetto di perfezione. Pro Tools, usato bene, chiarisce ciò che il rumore nasconde. L’Auto-Tune, usato male, cancella ciò che la voce autentica potrebbe dire. È la stessa linea sottile che separa l’intelligenza artificiale come strumento di comprensione da quella usata come trucco cognitivo. Tutto dipende da come si sceglie di ruotare la manopola: verso la verità o verso l’effetto artificiale.