Né oggetti né soggetti: il vuoto che non possiamo più ignorare

Ci mancano le parole per descrivere quello che sta succedendo nel mondo AI Un agente AI ha diffamato autonomamente un programmatore. Un altro sistema si è assegnato il 15-20% di probabilità di essere cosciente. Uno studio su Nature Communications mostra che i processi interni di questi sistemi convergono con quelli del cervello umano. Tre eventi delle stesse settimane che rivelano un vuoto normativo, etico e concettuale che non possiamo più ignorare.

Forse siamo solo configurazione

Abbiamo iniziato a salvare il nostro modo di lavorare. Non solo i risultati, ma le istruzioni, il tono, i criteri. All’inizio sembrava semplice efficienza: evitare di ripartire ogni volta da zero. Poi è diventato evidente che stavamo facendo qualcosa di diverso. Non ci limitavamo a usare strumenti intelligenti, chiedevamo loro di assomigliarci. Di rispettare le nostre priorità, di muoversi dentro il nostro perimetro. Quando il metodo diventa configurazione, il pensiero prende forma. Diventa qualcosa che può essere salvato, riattivato, persino condiviso. Non è solo tecnologia. È il momento in cui iniziamo a descriverci attraverso parametri e regole. E quando lo facciamo, finiamo per guardarci come sistemi. Forse siamo sempre stati anche questo. La differenza è che oggi lo scriviamo.

Intervista ImPossibile a Umberto Eco (IIP #24)

Con l’avvento delle intelligenze artificiali generative, il rapporto tra linguaggio, verità e interpretazione torna al centro del dibattito culturale e politico. I segni si moltiplicano e si ricombinano spesso senza un autore riconoscibile e senza un’intenzione dichiarata. Algoritmi addestrati su archivi sterminati producono testi, immagini e narrazioni che imitano il pensiero umano, mentre la distinzione tra informazione, interpretazione e manipolazione si fa sempre più sfumata. In questo scenario, interrogarsi sul destino del senso non significa soltanto discutere di tecnologia, ma riflettere sul modo in cui le società costruiscono e condividono significati, stabiliscono criteri di “verità” e organizzano le proprie memorie. Che cosa accade quando i segni non sono più prodotti soltanto dagli esseri umani? Chi interpreta chi, e quale spazio resta al pensiero critico quando la produzione simbolica diventa automatica e pervasiva? Questa intervista impossibile prova a immaginare le risposte di uno degli intellettuali che più di altri ha indagato il potere dei segni e la responsabilità dell’interpretazione. Scrittore, filosofo e semiologo, Umberto Eco è stato tra i maggiori interpreti del Novecento e del primo XXI secolo. Medievalista, teorico del linguaggio, romanziere e osservatore acuto dei media, professore all’Università di Bologna e autore di opere fondamentali come Opera aperta, Apocalittici e integrati e Il nome della rosa, ha dedicato la propria ricerca al rapporto tra segni, potere e interpretazione. Al centro del suo pensiero vi è l’idea che ogni testo sia un campo aperto di significati e che il lettore - o l’interprete - svolga un ruolo decisivo nella costruzione del senso. In un periodo nel quale la crisi delle grandi narrazioni e la dissoluzione delle comunità simboliche, le questioni sollevate da Eco tornano con forza: interpretazione, verità, manipolazione, memoria. Ed è da qui che prende forma questo dialogo immaginario.

Il Surf e l'Arte di usare l'intelligenza artificiale.

Nel 1907 Jack London arriva a Waikiki e vede per la prima volta un uomo in piedi su un'onda. Lo descrive come un Mercurio bruno, impassibile, che non lotta con il mare — ci sta dentro. E allora prova a imparare, non senza diffcoltà. E impara. E ci scrive anche un saggio. A parte lo stupore di scoprire che Jack London, che tutti noi associamo a montagne innevate e a Zanne Bianche, faceva surf, mi ha davvero divertito. Questa storia mi sembra una metafora indovinata per descrivere cosa significa imparare a usare l'AI davvero — non usarla e basta, ma usarla bene. L'AI non si controlla. Si accompagna. I modelli non sono strumenti fissi: cambiano, variano, hanno qualcosa che assomiglia all'umore. Il prompt perfetto non esiste, le librerie di prompt non sostituiscono la sensibilità situazionale. E nessun corso può darti quello che dà solo il tempo in acqua. Ho scritto un articolo che parte da London e arriva al metodo — o meglio, all'assenza di un metodo fisso — con cui chi lavora seriamente con l'AI si sposta tra modelli, legge le risposte, sceglie l'onda giusta per quel momento, quel progetto, quel destinatario. Non è una guida. È una mappa del territorio.

Chi ha diritto al futuro? (POV #24)

Mariana Mazzucato vs Nick Srnicek: lavoro, reddito e dignità nel capitalismo dell’AI Se l’automazione riduce il bisogno di lavoro umano, la dignità sociale deve continuare a dipendere dall’occupazione o diventare un diritto incondizionato? Chi decide, oggi, che cosa ha valore nell’economia dell’AI? Queste domande tornano al centro del conflitto politico e non riguardano solo il futuro del lavoro, ma il rapporto tra produzione, reddito e cittadinanza in società sempre più automatizzate. Il confronto tra Mariana Mazzucato e Nick Srnicek si colloca esattamente su questa questione. Mazzucato, economista dell’innovazione e teorica dello Stato imprenditore, sostiene che la tecnologia debba essere orientata da politiche pubbliche capaci di creare valore sociale e lavoro di qualità. Srnicek, filosofo politico dell’economia digitale e teorico del post-lavoro, parte invece dalla crisi strutturale del lavoro salariato nel capitalismo delle piattaforme. L’automazione, per lui, apre la possibilità di separare reddito e occupazione e di immaginare nuove forme di libertà fondate su tempo liberato e sicurezza economica universale. Due prospettive divergenti, ma accomunate del medesimo obiettivo, ridefinire il significato della dignità sociale in un’economia in cui il lavoro non è più la misura esclusiva del valore umano.

Il paradiso artificiale dell'intelligenza

Questa mattina, mentre attraversavo la città in sella allo scooter (momento meraviglioso per pensare), mi è venuto in mente che il termine "artificiale" ha sempre avuto, fino a un po' di tempo fa, una connotazione non propriamente positiva. Allora sono andato a cercare con la memoria usi del termine: paradisi artificiali, fiori artificiali, ecc. Poi, fermo ad un semaforo, mi sono detto: "vedi, però, come cambia la percezione collettiva del linguaggio, eh? Oggi con l'AI la parola è diventata una bella parola. - sì, d'accordo, parto, scusa, scusa - era venuto verde". Beh, com'è come non è, come ormai faccio sempre, tornato a casa ho aperto Perplexity (versione Claude 4.5) e ho cominciato a conversare con lui/lei/esso su queste riflessioni, che, come al solito, si sono espanse, dilatate, trasformate, arricchite. Ed allora, sempre come mio solito, con la conversazione con Perplexity sotto il braccio (per modo di dire), ho bussato alla porta di Claude (in una smagliante e scintillante versione Opus 4.6), con cui, in due o tre passaggi, ho scritto (?), generato, prodotto, il testo che segue. Come vedrete sono nella contraddizione con tutte le scarpe.

Esperti di IA? Sì. Ma non nel modo in cui pensiamo.

Parliamo spesso di “esperti di intelligenza artificiale” come se fosse una categoria compatta, definita, stabile. Ma l’AI non è un oggetto unico: è un territorio in continua espansione, fatto di ricerca, ingegneria, orchestrazione, agenti autonomi, impatti organizzativi ed etici. In questo scenario, forse la domanda non è se gli esperti esistano, ma cosa significhi davvero esserlo oggi. In un ecosistema che evolve più rapidamente dei nostri tempi di apprendimento, la competenza non è un’etichetta definitiva, ma una posizione da abitare con consapevolezza.

L'Effetto Rorschach Collettivo: anatomia di un concetto che non muore mai

Quando ho conversato con un'AI sul fatto di come mai i dibattiti sull'intelligenza artificiale sembrano rivelare più noi stessi che la tecnologia, mi ha risposto coniando la formula "Effetto Rorschach Collettivo" — presentandola come un'intuizione originale emersa dalla nostra conversazione. O almeno così pareva. Suonava bella, perfetta. Troppo. Scavando un po', ho scoperto che quella formula non era affatto nuova: esisteva già in pubblicazioni di pochi giorni prima, aveva una genealogia che risaliva a Sherry Turkle (MIT, 1980), era passata attraverso l'arte concettuale di Agnieszka Kurant (2019) e la critica etica di Margaret Mitchell (2021), ed era diventata un meme intellettuale applicato a decine di contesti diversi negli ultimi quarant'anni. L'AI stava riciclando. E io stavo documentando empiricamente il fenomeno stesso che stavamo discutendo: la tendenza a proiettare significati su sistemi ambigui credendo di scoprire qualcosa di nuovo.

Intervista ImPossibile a Sigmund Freud (IIP #23)

La macchina e l’inconscio L’AI promette di analizzare comportamenti, prevedere desideri, automatizzare decisioni. Si presenta come uno strumento capace di leggere l’umano attraverso i dati, trasformando tracce digitali, linguaggi e abitudini in modelli predittivi. Ma può davvero comprendere l’essere umano? O rischia, al contrario, di ridurre la complessità psichica a un sistema di calcolo e previsione? Interrogare oggi Freud sull’intelligenza artificiale è un modo per indagare quanto dell’esperienza umana può essere tradotto in dati. Fondatore della psicoanalisi e teorico dell’inconscio, Freud ha mostrato che il comportamento umano non è guidato soltanto dalla razionalità o dall’interesse, ma attraversato da desideri, rimozioni, conflitti, fantasie e pulsioni che sfuggono alla coscienza. La sua teoria della mente - articolata tra Es, Io e Super-Io - ha incrinato l’idea moderna di un soggetto pienamente consapevole di sé, introducendo una frattura destinata a segnare tutto il pensiero contemporaneo. Oggi, a più di un secolo di distanza, l’intelligenza artificiale sembra riproporre una nuova promessa di conoscenza totale. Attraverso l’analisi dei dati e l’apprendimento automatico, le macchine sono in grado di individuare correlazioni, anticipare comportamenti, suggerire decisioni. In questa prospettiva, l’AI appare talvolta come una forma di psicoanalisi automatizzata, un sistema che classifica e prevede. Eppure la psicoanalisi non è mai stata una semplice tecnica di osservazione. Il sintomo, per Freud, non è un dato oggettivo da registrare, ma un messaggio da interpretare all’interno di una relazione. Il desiderio, una forza che si manifesta attraverso rimozioni e ritorni. Il sogno, una formazione dell’inconscio che parla per spostamenti e condensazioni. Da qui nasce la tensione tra psicoanalisi e intelligenza artificiale. Una macchina può riconoscere schemi, ma può interpretare il senso di un sintomo? Può distinguere tra comportamento e desiderio? Può comprendere ciò che nell’essere umano resta contraddittorio, non riducibile a una sequenza di dati? Questa intervista impossibile prova a immaginare le risposte di Freud di fronte all’AI, per utilizzare il suo pensiero come strumento critico nel presente. Se l’intelligenza artificiale rappresenta una delle tecnologie decisive del nostro tempo, la psicoanalisi resta uno dei dispositivi più radicali per interrogare l’idea stessa di soggetto. Mettere a confronto questi due contesti significa indagare il confine tra calcolo e desiderio, tra macchina e umano.

Una sola scheda

Non sempre ci accorgiamo di quando il nostro modo di cercare cambia. A volte smettiamo di esplorare non per mancanza di curiosità, ma perché una risposta arriva troppo in fretta. Questo testo nasce da una sensazione condivisa: il momento in cui approfondire inizia a sembrare superfluo. E il pensiero, senza rumore, diventa più corto.

Intelligenza artificiale, società e politica (POV #23)

Kate Crawfor e Yann LeCun: che cos’è davvero l’intelligenza artificiale? È una forma di intelligenza autonoma o, più semplicemente, un insieme di strumenti costruiti dall’essere umano per analizzare dati, fare previsioni e prendere decisioni? E, in questo scenario, chi detiene il potere, poche grandi aziende tecnologiche e governi, oppure una pluralità di soggetti in grado di orientarne lo sviluppo e l’uso? Affidare scelte a sistemi automatici impone di confrontarsi su questioni concrete. Come vengono tutelati i diritti delle persone, chi è responsabile quando un algoritmo produce errori o discriminazioni, e quali regole dovrebbero governare questi processi? Inoltre, in che modo l’intelligenza artificiale sta già trasformando il lavoro, l’organizzazione sociale e le istituzioni democratiche? Questo articolo affronta questi interrogativi attraverso alcuni temi, mettendo a confronto due figure autori centrali del dibattito contemporaneo sull’AI. Da un lato Kate Crawford, ricercatrice e studiosa dei rapporti tra intelligenza artificiale, potere e disuguaglianze sociali, nota per la sua analisi critica delle infrastrutture tecnologiche e dei loro impatti politici. Dall’altro Yann LeCun, informatico e pioniere del deep learning, tra i principali protagonisti dello sviluppo tecnico dell’AI e sostenitore di una visione più ottimista sulle sue potenzialità. Il confronto tra queste due prospettive consente di osservare l’intelligenza artificiale non solo come tecnologia, ma come questione politica e sociale, in cui scelte tecniche e responsabilità pubbliche risultano sempre più intrecciate.

Intervista ImPossibile a Bruno Latour (IIP #22)

L’intelligenza artificiale non pensa, governa. Bruno Latour ci ha insegnato che la modernità si è costruita su una finzione utile, quella di separare natura e società, scienza e politica, fatti e valori. Una finzione che ha permesso di presentare molte scelte come “neutrali” o “oggettive”, quando in realtà erano già politiche, ma non dichiarate. Oggi l’AI rende questa finzione più fragile perché mostra in modo chiaro ciò che era già presente, ovvero regole nascoste dentro ai sistemi, criteri che decidono al posto nostro, forme di potere esercitate attraverso dispositivi tecnici, senza responsabilità visibile. In questa intervista impossibile, Latour non risponde alla domanda “che cos’è l’intelligenza artificiale?”, ma a “chi sta davvero agendo quando è una macchina a filtrare le informazioni, assegnare punteggi, classificare persone?” “Chi se ne assume la responsabilità?”

Che cos'è un Autoencoder? L’Intelligenza della Sintesi

Il presente testo si propone di dimostrare la natura intrinsecamente intelligente dell'Autoencoder, analizzandone l'architettura non come un semplice strumento di calcolo, ma come un modello di sintesi cognitiva. Attraverso una scomposizione dettagliata delle sue fasi — dalla distillazione operata dall'Encoder alla rigenerazione dell'archetipo nel Decoder — viene illustrato come questa IA sia in grado di apprendere autonomamente le leggi fisiche sottostanti ai dati. Ci si riferirà, per esemplificarne l'uso, alla spettroscopia. Il punto centrale della dimostrazione risiede nella capacità del modello di mappare la realtà complessa in uno Spazio Latente (bottleneck), dove il rumore viene eliminato per via strutturale e non statistica. Viene introdotto e definito il concetto di Pseudo-Spettro come proiezione del centroide di tale spazio, provando che l'Autoencoder non si limita a "pulire" l'input, ma ne ricostruisce la verità fisica. L'analisi comparativa tra diverse architetture (Dense, Conv1D, Transformer) serve a documentare come la consapevolezza nella scelta del modello permetta di estrarre informazioni cruciali, trasformando l'IA in un validatore scientifico trasparente e interpretabile.

L’illusione della produttività infinita: quando l’AI accelera il vuoto

L’intelligenza artificiale rende il vuoto (di senso) scalabile, riproducibile, industriale. Accelerando la produzione di contenuti formalmente corretti ma spesso privi di direzione, l’AI rischia di saturare l’attenzione e indebolire la capacità di distinguere ciò che conta davvero. Una riflessione sull’illusione della produttività infinita e sul valore, sempre più raro, dell’attrito cognitivo.

Democrazia algoritmica (POV #22)

Jaron Lanier e Cathy O’Neil: Gli algoritmi possono essere compatibili con la democrazia, oppure la loro logica economica e tecnica la sta lentamente svuotando dall’interno? Viviamo immersi nei dati, ma comprendiamo sempre meno i dispositivi che li trasformano in decisioni. Che cosa accade quando scelte politiche, economiche e sociali vengono delegate a modelli matematici? Gli algoritmi promettono efficienza, oggettività, razionalità. Ma chi li progetta? Chi li governa? Chi ne subisce gli effetti? La cosiddetta “democrazia algoritmica” si presenta così come una forma di governo senza elezioni né dibattito pubblico, un potere incorporato nei sistemi che regolano l’accesso al credito, la selezione del lavoro, la circolazione delle informazioni, le pratiche di sicurezza e sorveglianza. Non è una nuova istituzione, ma un’infrastruttura decisionale che agisce sotto la soglia della visibilità politica.

Intervista ImPossibile a Jean-Michel Basquiat (IIP #21)

Segno, Simbolo, Sintassi e l’AI Un dialogo immaginario su come l’esperienza di Jean-Michel Basquiat - la sua grammatica visiva fatta di parole e simboli - possa offrire un’occasione per ripensare criticamente le questioni contemporanee legate all’intelligenza artificiale. Questa intervista impossibile problematizza l’AI come spazio di senso che si confronta con categorie profonde e politiche quali l’identità, il potere, il linguaggio e la marginalità. È un confronto tra due modi di produrre significato, la pittura che nasce dall’esperienza vissuta e dai conflitti sociali, e i sistemi computazionali che apprendono da dati preesistenti. Basquiat emerse dalla scena dei graffiti di New York negli anni ’70, prima sotto il nome di SAMO, poi come uno dei principali esponenti del neoespressionismo internazionale. In meno di un decennio, trasformò la pittura attraverso un repertorio visivo fatto di testo, segni ruvidi, simboli e un uso iperattivo di parole e numeri che non separano immagine da linguaggio ma li intrecciano come vettori di critica sociale e storica. L’opera di Basquiat ruota attorno a contraddizioni e dicotomie - ad esempio potere/oppresso, razza/classe, esperienza interna/esterna - che mettono in discussione la gerarchia dei segni nel discorso culturale e invitano a leggere l’AI non solo come strumento, ma come dispositivo che riconfigura le gerarchie interpretative stesse.

Il potere invisibile dell’AI (POV #21)

Shoshana Zuboff e Evgeny Morozov: L’AI è una nuova fase del capitalismo o un modo per trasformare decisioni politiche in soluzioni tecniche? Quando parliamo di intelligenza artificiale, raramente ci limitiamo a parlare di una tecnologia. Dietro l’AI si muovono questioni che riguardano l’economia, il potere, i modelli di società che stiamo costruendo. L’AI può essere letta come il motore di una nuova fase del capitalismo, fondata sull’estrazione dei dati e sulla previsione dei comportamenti futuri. Ma può anche essere interpretata come il prodotto di una narrazione che trasforma temi politici in problemi tecnici e conflitti sociali in questioni di efficienza. Shoshana Zuboff ed Evgeny Morozov rappresentano due tra le voci più autorevoli di questa critica. La prima analizza l’AI come infrastruttura economica del capitalismo della sorveglianza, un sistema che monetizza l’esperienza umana convertendola in informazione predittiva. Il secondo la interpreta come espressione di un’ideologia tecnologica che promette soluzioni automatiche e, così facendo, sottrae le scelte collettive al dibattito democratico. Il loro confronto non riguarda soltanto il funzionamento degli algoritmi, ma il modo in cui il digitale sta ridefinendo il potere nel XXI secolo.