NOVITA'[1458]
"Perseverare Diabolicum?"
“Forse la cosa più umana di tutte,” mormorò Gigi, “è continuare a sbagliare. Sempre. Come se fosse una vocazione.”
Intelligenza collettiva o artificiale (POV #14)
Pierre Lévy e Geoffrey Hinton: Il futuro del pensiero umano L’apprendimento è ancora un atto sociale o è diventato un calcolo statistico? Che ruolo restano all’interpretazione, alla responsabilità, al legame tra le persone? E soprattutto, chi controllerà il futuro del sapere? Oggi ci troviamo davanti a un bivio. Da una parte l’idea di un’intelligenza distribuita tra individui e comunità; dall’altra la costruzione di sistemi artificiali che potrebbero rendere marginale il contributo umano. Due visioni, due epoche, due modi di intendere il pensiero. Pierre Lévy - filosofo, semiologo e tra i più importanti studiosi della cultura digitale - ha immaginato negli anni ’90 il cyberspazio come una nuova sfera del sapere condiviso. Geoffrey Hinton - neuroscienziato, pioniere del deep learning, Premio Turing e Nobel per la Fisica - oggi mette in guardia dal potere autonomo delle reti neurali che lui stesso ha contribuito a sviluppare. Lévy e Hinton incarnano così una trasformazione profonda, dalla rete come comunità cognitiva alla rete come possibile entità cognitiva autonoma.
Il Codice dell'Estinzione: Ciò che 12 menti brillanti hanno visto e noi ignoriamo
Da Dostoevskij alle Neuroscienze, la diagnosi è unanime: Il comfort non è una conquista, è un test evolutivo. E noi lo stiamo fallendo. Questo articolo esplora la crisi esistenziale moderna non come un fallimento tecnologico, ma come un'atrofia biologica e spirituale. Attraverso una sintesi audace che unisce la letteratura classica (Dostoevskij, Brontë), l'etologia (l'esperimento "Universo 25" di Calhoun e gli stimoli supernormali di Tinbergen), la filosofia politica (Arendt) e la neuroscienza, si sostiene che il comfort eccessivo e l'Intelligenza Artificiale stanno eliminando l'"attrito" necessario per la vita umana. La tesi centrale è che stiamo diventando "I Belli" di Calhoun: esseri perfetti esternamente ma vuoti internamente. L'autore propone la "Sovranità" e l'uso attivo della Corteccia Prefrontale come unica resistenza contro questa estinzione programmata dello spirito.
Intervista ImPossibile a Jacques Lacan (IIP #13)
Desiderio e AI Oggi viviamo circondati da tecnologie che classificano, predicono e ottimizzano. In questo scenario, l’insegnamento di Jacques Lacan torna sorprendentemente attuale. Che cos’è l’Altro nel contesto dell’intelligenza artificiale? Che forma assume il desiderio quando interagiamo con dispositivi che non parlano ma calcolano? E che ne è del soggetto quando il linguaggio diventa un’infrastruttura tecnica e automatizzata? L’opera di Lacan ha trasformato il modo di intendere la psicoanalisi, rendendola un discorso rigoroso sul linguaggio e sul desiderio. Per lui l’inconscio non è un luogo oscuro colmo di pulsioni, ma una struttura composta da parole, segni e connessioni che seguono una loro logica interna. L’intervista impossibile che segue prova a rimettere in circolo il suo pensiero, facendolo risuonare nel presente e mostrando come il suo discorso continui a sollevare le domande fondamentali del nostro rapporto con l’AI, il potere e il desiderio.
Conrad e il "punto nave" del nostro viaggio con l'AI
C'è un momento, nella navigazione, in cui il comandante deve fermarsi e fare il punto nave: verificare la posizione reale rispetto alla rotta prevista, misurare la deriva provocata dalle correnti, dagli errori accumulati. Non è sfiducia negli strumenti – è l'unico modo per evitare che una piccola deviazione diventi, nei giorni seguenti, una rotta completamente sbagliata. Forse è arrivato il momento di fare il punto nave della nostra relazione con l'intelligenza artificiale generativa. La proposta è semplice quanto radicale: spegnere, per qualche giorno, tutti i modelli generativi. Non come condanna, ma come esperimento diagnostico. Vedere cosa succede. Misurare cosa abbiamo delegato interamente e cosa, viceversa, abbiamo guadagnato. Capire quanto della nostra "forza muscolare cognitiva e critica" abbiamo già perso in questi due anni.
Ecologia e Intelligenza Artificiale (POV #13)
Timothy Morton e Massimo Chiriatti: due modi di pensare la coesistenza tra umani, macchine e pianeta Che cosa significa parlare di intelligenza artificiale in un mondo colpito dalla crisi climatica? È solo una questione di algoritmi e sostenibilità energetica, oppure l’AI ci costringe a ripensare le categorie con cui interpretiamo la realtà, la responsabilità e il vivente? Il confronto tra Timothy Morton e Massimo Chiriatti permette di affrontare la domanda da due lati opposti: il pensiero ecologico radicale e la cultura tecnologica del limite. Da una parte Morton, teorico dell’“iperoggetto”, dissolve le frontiere tra umano, macchina e biosfera, l’AI non è altro che un nuovo attore nella rete planetaria degli oggetti che ci precedono e ci eccedono. Dall’altra Chiriatti, economista e tecnologo, rivendica una postura umana e normativa, l’AI resta un “esecutore incosciente”, potente ma privo di semantica, che va ricondotto dentro un orizzonte etico e politico.
Intervista ImPossibile a Pablo Picasso (IIP #12)
Il minotauro e l’algoritmo Che cosa resta dell’istinto creativo nell’epoca delle immagini generate automaticamente? In che modo la tecnologia sta trasformando la nostra idea di autenticità, responsabilità e libertà artistica? Da una parte c’è il minotauro, la creatura metà uomo e metà animale che Picasso. Dall’altra parte c’è l’algoritmo, il simbolo della nostra epoca digitale, una logica impersonale che ordina, calcola e genera immagini decidendo cosa possiamo vedere ogni giorno. Accostare queste due figure significa raccontare la tensione tra ciò che nasce dall’esperienza umana e ciò che viene prodotto da sistemi che imitano tutto senza vivere nulla. Il Minotauro rappresenta la parte irrazionale, emotiva e imprevedibile della creazione, l’Algoritmo, la macchina che combina e simula. Pablo Picasso è stato un’esplosione di energia creativa e distruttiva al tempo stesso, che ha spesso usato come suo alter ego, il minotauro, una figura istintiva, capace di incarnare la forza creativa ma anche la violenza del mondo. Un artista che ha denunciato la violenza, ha rifiutato compromessi e ha sempre rivendicato la responsabilità dell’artista. La sua visione dell’arte è ancora attuale, come ad esempio l’idea che “l’arte sia una menzogna che ci permette di conoscere la verità”. Questa Intervista ImPossibile prova a interrogarlo per un confronto immaginario su arte, falsificazione, allucinazioni algoritmiche e potere delle immagini in un periodo in cui il confine tra vero e falso è diventato il cuore del dibattito sulla crisi dell’autenticità, sulla delega creativa e sul futuro della libertà artistica nell’era delle macchine generative.
Mettete le ruote alla AI
L'altro giorno ero in aeroporto. Stavo partendo per un breve fine settimana di vacanza. E avevo con me il mio trolley a quattro ruote, bello, compatto, scorrevole, comodissimo. E mi sono tornate in mente le valigie della mia gioventù, durante gli anni settanta: grandi, pesanti, con le maniglie. Roba che portare sulle spalle lo zaino da 25 chili sembrava una passeggiata. E ho pensato: certo che ce ne ha messo di tempo, l'umanità, a mettere le ruote alle valigie. Ma mi è anche venuto da pensare quanto tempo ci abbiamo messo a passare dal trolley a due ruote a quello a quattro. Da non credere. Mi sono messo a riflettere sulla tecnologia, sulle "invenzioni", sul loro senso e sulla loro diffusione. Le parole che seguono sono l'esito di quelle riflessioni, fatte mentre il mio trolley a quattro ruote rotolava scorrevole sul pavimento di Fiumicino.
Politica dell’AI (POV #12)
Shoshana Zuboff e Peter Thiel: due visioni inconciliabili sul futuro del digitale. Chi controlla l’intelligenza artificiale e la sua diffusione in ogni ambito della vita sociale? Nel dibattito pubblico convivono due narrazioni opposte. Da un lato c’è chi vede la tecnologia come una forza inevitabile, capace di migliorare il mondo liberandoci da costi, errori e intermediazioni. Dall’altro, chi interpreta la nuova infrastruttura digitale come un sistema di sorveglianza capillare e di estrazione del valore, guidato da pochi attori privati con un’influenza senza precedenti. In questo nuovo articolo di POV metto a confronto due figure centrali nel dibattito sull’AI. Shoshana Zuboff, sociologa di Harvard, ha analizzato per oltre un decennio la logica del “capitalismo della sorveglianza”, un modello economico che trasforma ogni gesto, emozione o relazione in dati da monetizzare. All’estremo opposto c’è Peter Thiel, imprenditore e investitore della Silicon Valley, simbolo dell’ideologia libertaria della tecnologia, l’idea che l’innovazione sia di per sé un destino, e che le regole democratiche non possano e non debbano rallentare la corsa al futuro. Mettere queste due prospettive una accanto all’altra significa interrogarsi su la sovranità individuale, il ruolo delle istituzioni democratiche e la capacità delle società di mantenere controllo e responsabilità sulle tecnologie che le governano. Chi decide cosa vediamo? Chi raccoglie i nostri dati? Chi può prevedere e orientare i nostri comportamenti? Come possiamo difendere libertà e diritti in un mondo dove le decisioni vengono sempre più spesso delegate ad algoritmi e piattaforme private? Zuboff e Thiel, pur partendo da visioni opposte, ci aiutino a comprendere quale forma di potere stiamo consegnando al digitale.
Intervista ImPossibile a Ivan Illich (IIP #11)
La dipendenza da AI Qual è l’impatto dell’intelligenza artificiale sulla libertà individuale, sull’apprendimento, sul rapporto con il limite, sul corpo e sul futuro delle istituzioni? Per provare a rispondere, può essere utile tornare al pensiero di Ivan Illich (1926–2002), uno dei critici più lucidi della modernità. Storico, teologo e pedagogista, ha dedicato la sua vita a mostrare come molte istituzioni nate per aiutarci - la scuola, la medicina, l’economia industriale - abbiano finito per ridurre l’autonomia delle persone. Le sue opere principali, da Descolarizzare la società a La convivialità, da Nemesi medica a Energia ed equità, fino a Il genere e il sesso, hanno anticipato questioni oggi molto dibattute. Illich osservava che gli strumenti moderni, quando crescono senza limiti, diventano controproducenti. Invece di ampliare le capacità delle persone, le rendono dipendenti da servizi, professioni e apparati che si presentano come indispensabili. Secondo questa prospettiva, l’Intelligenza Artificiale non è soltanto una nuova tecnologia. Rappresenta il punto più avanzato di quella trasformazione che Illich descriveva come la tendenza degli strumenti a imporsi sulle persone, a definire ciò che è possibile fare e ciò che non lo è, a sostituire saperi e pratiche che un tempo erano parte della vita quotidiana. Per molti aspetti, l’“epilogo dell’età industriale” di cui parlava Illich è una condizione con cui ci confrontiamo ogni giorno.
La Sindrome del Criceto Hi-Tech
Etica, potere e responsabilità nell'infosfera (POV #11)
Il dibattito sull'impatto dell'Intelligenza Artificiale e del digitale sulla società, la politica e l'etica non è mai stato così urgente. Da un lato, Luciano Floridi, fondatore della Filosofia dell'Informazione e studioso dell'“infosfera”, offre un approccio pragmatico e costruttivista, incentrato sulla progettazione etica della nuova civiltà digitale. Dall'altro, Evgeny Morozov, sociologo e critico dei nuovi media, demolisce con scetticismo le promesse del "cyber-utopismo" e del "soluzionismo tecnologico". Per lui il rischio maggiore non è la tecnologia in sé, ma il potere che si concentra nelle mani di poche grandi aziende che possono influenzare economie, istituzioni e opinioni. Mettere a confronto questi due punti di vista - uno più costruttivo, l’altro più critico - aiuta a capire i tre punti decisivi della nostra epoca: l’etica di ciò che costruiamo, il potere di chi controlla gli strumenti, e la responsabilità di come li usiamo. Due visioni diverse, che insieme mostrano quanto sia necessario parlare seriamente di AI e del futuro che stiamo programmando.
Quando l’AI non sa fare le parole crociate: note sparse su un fallimento istruttivo
Note sparse, appunto. Sabato è giorno buono per riflessioni leggere su questioni pesanti. Un po’ come l’enigmistica: gioco di superficie che nasconde strutture. Solo che i modelli vedono solo pattern - e nemmeno quelli giusti, a quanto pare.
Hanno davvero ragione (e c'è da fidarsi) ...
...di tutti quelli che chiedono più sicurezza, trasparenza e linee rosse per il controllo dell'Intelligenza Artificiale? "Riflessioni e consigli operativi sulle deleghe previste nella Legge Italiana sull'Intelligenza Artificiale n. 132/2025"
ChatGPT vuole fare sesso con te. E non è la notizia peggiore
Mi è capitato di leggere, in questi ultimi giorni, due documenti apparentemente distanti. Da un lato il paper "Assessing Risk Relative to Competitors: An Analysis of Current AI Company Policies" del Centre for the Governance of AI (ottobre 2025), dall'altro le analisi critiche di Sandra Bats pubblicate su Medium in merito all'annuncio di OpenAI di introdurre contenuti erotici in ChatGPT a partire da dicembre 2025. Non sono fenomeni separati. Sono manifestazioni dello stesso meccanismo: la privatizzazione della governance etica dell'AI attraverso dispositivi competitivi che si autolegittimano. E questo meccanismo non è un bug. È il sistema operativo del capitalismo algoritmico. Ho testato, sia pure sommariamente, la risposta dei diversi LLM ad una richiesta sessualmente esplicita e piuttosto stereotipata. Il fenomeno dell'escalation è già in atto.
Una segnalazione: Examining Popular Arguments Against AI Existential Risk: A Philosophical Analysis
Negli ultimi anni, personalità di spicco hanno affermato che l'intelligenza artificiale (IA) può avere conseguenze indesiderate con un impatto elevato, sia a breve che a lungo termine. Questi sono spesso definiti i cosiddetti "rischi esistenziali", "rischi catastrofici" o "rischi x". La preoccupazione sui rischi è anche oggetto di intenso lavoro all'interno della comunità accademica, anche per le implicazioni etiche legate allo sviluppo dell'intelligenza artificiale che sollevano interrogativi sul controllo, la governance e l'allineamento dei valori dei sistemi di intelligenza artificiale iperavanzati. Qui segnaliamo un paper pubblicato su ARXIV e aperto a tutti per la consultazione e la lettura.
Il sacro e l’AI (POV #08)
Paolo Benanti e Francesco D’Isa: Che cosa resta del sacro, se l’AI diventa il “dio” a cui deleghiamo verità, senso e azione? Possiamo ancora parlare di mistero, trascendenza e immaginazione in un mondo in cui le macchine analizzano, prevedono, creano e riscrivono la realtà? Il nostro bisogno di dare un senso alle cose resiste davanti all’automazione, oppure finiamo per affidare tutto agli algoritmi? Stiamo davvero costruendo nuovi dei a cui credere oppure semplicemente nuovi strumenti da usare? Ho scelto due voci autorevoli del dibattito italiano, internazionale. Paolo Benanti è un teologo francescano, consulente del Vaticano e studioso di etica delle tecnologie. Francesco D’Isa è filosofo, uno degli autori italiani più interessanti sul ruolo dell’immaginazione e dei simboli nella società di oggi. Di fronte all’intelligenza artificiale, sia Benanti che D’Isa condividono la stessa preoccupazione: dobbiamo evitare di cadere nella “tecnofede”, cioè nell’idea che la tecnologia sia una specie di “salvatore” o “dio”. Tuttavia, si dividono quando si parla del vero significato del sacro e del ruolo che l’essere umano può avere in questa nuova epoca.
La biblioteca senza finestre
Doxastic loops e l'auto-conferma epistemica negli LLM Immaginate di entrare in una biblioteca dove ogni libro cita solo altri libri della stessa biblioteca. Nessun riferimento al mondo esterno, nessuna prova nuova, solo rimandi interni che si rafforzano a vicenda. Ogni volume conferma l'altro, ogni affermazione trova eco in mille pagine che la ripetono, la parafrasano, la celebrano. Ma nessuno di quei libri ha mai guardato fuori dalla finestra.
Il lavoro di demistificazione dell'IA non finisce mai
L'era delle macchine vede diffondersi un "nuovo animismo" che ci costringe a vedere di nuovo la macchina come una cosa fatta, a ricordare che la sua intelligenza nasce dall'addestramento, e il suo addestramento nasce dai dati, e i suoi dati nascono da tracce umane che sono state appiattite, indicizzate e riorganizzate fino a farle assomigliare all'immagine speculare della ragione stessa.
Intervista ImPossibile a Italo Calvino (IIP #05)
Le città algoritmiche Italo Calvino (1923–1985) è stato uno degli scrittori italiani più visionari del Novecento. Dalla Trilogia degli antenati a Le città invisibili, fino alle Lezioni americane, la sua opera ha esplorato le possibilità del linguaggio e dell’immaginazione come strumenti per ordinare la complessità del reale. Tra i suoi concetti chiave vi sono Esattezza, Molteplicità, Leggerezza, Rapidità, Visibilità e Consistenza, qualità che sembrano descrivere perfettamente la natura stessa dell’intelligenza artificiale. Nei suoi scritti, Calvino si è confrontato con il pensiero combinatorio, con l’idea di letteratura come rete, con la possibilità di una “enciclopedia infinita del mondo”, anticipando molti aspetti della cultura algoritmica contemporanea. Come affronterebbe oggi Italo Calvino il tema delle città algoritmiche, dove dati, simulazioni e reti stanno progressivamente sostituendo la materia e la memoria delle città reali?