Mettete le ruote alla AI

L'altro giorno ero in aeroporto. Stavo partendo per un breve fine settimana di vacanza. E avevo con me il mio trolley a quattro ruote, bello, compatto, scorrevole, comodissimo. E mi sono tornate in mente le valigie della mia gioventù, durante gli anni settanta: grandi, pesanti, con le maniglie. Roba che portare sulle spalle lo zaino da 25 chili sembrava una passeggiata. E ho pensato: certo che ce ne ha messo di tempo, l'umanità, a mettere le ruote alle valigie. Ma mi è anche venuto da pensare quanto tempo ci abbiamo messo a passare dal trolley a due ruote a quello a quattro. Da non credere. Mi sono messo a riflettere sulla tecnologia, sulle "invenzioni", sul loro senso e sulla loro diffusione. Le parole che seguono sono l'esito di quelle riflessioni, fatte mentre il mio trolley a quattro ruote rotolava scorrevole sul pavimento di Fiumicino.

Politica dell’AI (POV #12)

Shoshana Zuboff e Peter Thiel: due visioni inconciliabili sul futuro del digitale. Chi controlla l’intelligenza artificiale e la sua diffusione in ogni ambito della vita sociale? Nel dibattito pubblico convivono due narrazioni opposte. Da un lato c’è chi vede la tecnologia come una forza inevitabile, capace di migliorare il mondo liberandoci da costi, errori e intermediazioni. Dall’altro, chi interpreta la nuova infrastruttura digitale come un sistema di sorveglianza capillare e di estrazione del valore, guidato da pochi attori privati con un’influenza senza precedenti. In questo nuovo articolo di POV metto a confronto due figure centrali nel dibattito sull’AI. Shoshana Zuboff, sociologa di Harvard, ha analizzato per oltre un decennio la logica del “capitalismo della sorveglianza”, un modello economico che trasforma ogni gesto, emozione o relazione in dati da monetizzare. All’estremo opposto c’è Peter Thiel, imprenditore e investitore della Silicon Valley, simbolo dell’ideologia libertaria della tecnologia, l’idea che l’innovazione sia di per sé un destino, e che le regole democratiche non possano e non debbano rallentare la corsa al futuro. Mettere queste due prospettive una accanto all’altra significa interrogarsi su la sovranità individuale, il ruolo delle istituzioni democratiche e la capacità delle società di mantenere controllo e responsabilità sulle tecnologie che le governano. Chi decide cosa vediamo? Chi raccoglie i nostri dati? Chi può prevedere e orientare i nostri comportamenti? Come possiamo difendere libertà e diritti in un mondo dove le decisioni vengono sempre più spesso delegate ad algoritmi e piattaforme private? Zuboff e Thiel, pur partendo da visioni opposte, ci aiutino a comprendere quale forma di potere stiamo consegnando al digitale.

Intervista ImPossibile a Ivan Illich (IIP #11)

La dipendenza da AI Qual è l’impatto dell’intelligenza artificiale sulla libertà individuale, sull’apprendimento, sul rapporto con il limite, sul corpo e sul futuro delle istituzioni? Per provare a rispondere, può essere utile tornare al pensiero di Ivan Illich (1926–2002), uno dei critici più lucidi della modernità. Storico, teologo e pedagogista, ha dedicato la sua vita a mostrare come molte istituzioni nate per aiutarci - la scuola, la medicina, l’economia industriale - abbiano finito per ridurre l’autonomia delle persone. Le sue opere principali, da Descolarizzare la società a La convivialità, da Nemesi medica a Energia ed equità, fino a Il genere e il sesso, hanno anticipato questioni oggi molto dibattute. Illich osservava che gli strumenti moderni, quando crescono senza limiti, diventano controproducenti. Invece di ampliare le capacità delle persone, le rendono dipendenti da servizi, professioni e apparati che si presentano come indispensabili. Secondo questa prospettiva, l’Intelligenza Artificiale non è soltanto una nuova tecnologia. Rappresenta il punto più avanzato di quella trasformazione che Illich descriveva come la tendenza degli strumenti a imporsi sulle persone, a definire ciò che è possibile fare e ciò che non lo è, a sostituire saperi e pratiche che un tempo erano parte della vita quotidiana. Per molti aspetti, l’“epilogo dell’età industriale” di cui parlava Illich è una condizione con cui ci confrontiamo ogni giorno.

Etica, potere e responsabilità nell'infosfera (POV #11)

Il dibattito sull'impatto dell'Intelligenza Artificiale e del digitale sulla società, la politica e l'etica non è mai stato così urgente. Da un lato, Luciano Floridi, fondatore della Filosofia dell'Informazione e studioso dell'“infosfera”, offre un approccio pragmatico e costruttivista, incentrato sulla progettazione etica della nuova civiltà digitale. Dall'altro, Evgeny Morozov, sociologo e critico dei nuovi media, demolisce con scetticismo le promesse del "cyber-utopismo" e del "soluzionismo tecnologico". Per lui il rischio maggiore non è la tecnologia in sé, ma il potere che si concentra nelle mani di poche grandi aziende che possono influenzare economie, istituzioni e opinioni. Mettere a confronto questi due punti di vista - uno più costruttivo, l’altro più critico - aiuta a capire i tre punti decisivi della nostra epoca: l’etica di ciò che costruiamo, il potere di chi controlla gli strumenti, e la responsabilità di come li usiamo. Due visioni diverse, che insieme mostrano quanto sia necessario parlare seriamente di AI e del futuro che stiamo programmando.

ChatGPT vuole fare sesso con te. E non è la notizia peggiore

Mi è capitato di leggere, in questi ultimi giorni, due documenti apparentemente distanti. Da un lato il paper "Assessing Risk Relative to Competitors: An Analysis of Current AI Company Policies" del Centre for the Governance of AI (ottobre 2025), dall'altro le analisi critiche di Sandra Bats pubblicate su Medium in merito all'annuncio di OpenAI di introdurre contenuti erotici in ChatGPT a partire da dicembre 2025. Non sono fenomeni separati. Sono manifestazioni dello stesso meccanismo: la privatizzazione della governance etica dell'AI attraverso dispositivi competitivi che si autolegittimano. E questo meccanismo non è un bug. È il sistema operativo del capitalismo algoritmico. Ho testato, sia pure sommariamente, la risposta dei diversi LLM ad una richiesta sessualmente esplicita e piuttosto stereotipata. Il fenomeno dell'escalation è già in atto.

Una segnalazione: Examining Popular Arguments Against AI Existential Risk: A Philosophical Analysis

Negli ultimi anni, personalità di spicco hanno affermato che l'intelligenza artificiale (IA) può avere conseguenze indesiderate con un impatto elevato, sia a breve che a lungo termine. Questi sono spesso definiti i cosiddetti "rischi esistenziali", "rischi catastrofici" o "rischi x". La preoccupazione sui rischi è anche oggetto di intenso lavoro all'interno della comunità accademica, anche per le implicazioni etiche legate allo sviluppo dell'intelligenza artificiale che sollevano interrogativi sul controllo, la governance e l'allineamento dei valori dei sistemi di intelligenza artificiale iperavanzati. Qui segnaliamo un paper pubblicato su ARXIV e aperto a tutti per la consultazione e la lettura.

Il sacro e l’AI (POV #08)

Paolo Benanti e Francesco D’Isa: Che cosa resta del sacro, se l’AI diventa il “dio” a cui deleghiamo verità, senso e azione? Possiamo ancora parlare di mistero, trascendenza e immaginazione in un mondo in cui le macchine analizzano, prevedono, creano e riscrivono la realtà? Il nostro bisogno di dare un senso alle cose resiste davanti all’automazione, oppure finiamo per affidare tutto agli algoritmi? Stiamo davvero costruendo nuovi dei a cui credere oppure semplicemente nuovi strumenti da usare? Ho scelto due voci autorevoli del dibattito italiano, internazionale. Paolo Benanti è un teologo francescano, consulente del Vaticano e studioso di etica delle tecnologie. Francesco D’Isa è filosofo, uno degli autori italiani più interessanti sul ruolo dell’immaginazione e dei simboli nella società di oggi. Di fronte all’intelligenza artificiale, sia Benanti che D’Isa condividono la stessa preoccupazione: dobbiamo evitare di cadere nella “tecnofede”, cioè nell’idea che la tecnologia sia una specie di “salvatore” o “dio”. Tuttavia, si dividono quando si parla del vero significato del sacro e del ruolo che l’essere umano può avere in questa nuova epoca.

La biblioteca senza finestre

Doxastic loops e l'auto-conferma epistemica negli LLM Immaginate di entrare in una biblioteca dove ogni libro cita solo altri libri della stessa biblioteca. Nessun riferimento al mondo esterno, nessuna prova nuova, solo rimandi interni che si rafforzano a vicenda. Ogni volume conferma l'altro, ogni affermazione trova eco in mille pagine che la ripetono, la parafrasano, la celebrano. Ma nessuno di quei libri ha mai guardato fuori dalla finestra.

Il lavoro di demistificazione dell'IA non finisce mai

L'era delle macchine vede diffondersi un "nuovo animismo" che ci costringe a vedere di nuovo la macchina come una cosa fatta, a ricordare che la sua intelligenza nasce dall'addestramento, e il suo addestramento nasce dai dati, e i suoi dati nascono da tracce umane che sono state appiattite, indicizzate e riorganizzate fino a farle assomigliare all'immagine speculare della ragione stessa.

Intervista ImPossibile a Italo Calvino (IIP #05)

Le città algoritmiche Italo Calvino (1923–1985) è stato uno degli scrittori italiani più visionari del Novecento. Dalla Trilogia degli antenati a Le città invisibili, fino alle Lezioni americane, la sua opera ha esplorato le possibilità del linguaggio e dell’immaginazione come strumenti per ordinare la complessità del reale. Tra i suoi concetti chiave vi sono Esattezza, Molteplicità, Leggerezza, Rapidità, Visibilità e Consistenza, qualità che sembrano descrivere perfettamente la natura stessa dell’intelligenza artificiale. Nei suoi scritti, Calvino si è confrontato con il pensiero combinatorio, con l’idea di letteratura come rete, con la possibilità di una “enciclopedia infinita del mondo”, anticipando molti aspetti della cultura algoritmica contemporanea. Come affronterebbe oggi Italo Calvino il tema delle città algoritmiche, dove dati, simulazioni e reti stanno progressivamente sostituendo la materia e la memoria delle città reali?

Intervista ImPossibile a George Orwell (IIP #04)

L’AI come nuovo totalitarismo George Orwell (pseudonimo di Eric Arthur Blair, 1903–1950) è uno degli autori più influenti del XX secolo. Scrittore, giornalista e combattente antifranchista, ha denunciato i meccanismi del potere e della manipolazione con una chiarezza che ancora oggi inquieta. I suoi due romanzi più celebri – La fattoria degli animali (1945) e 1984 (1949) – sono parabole del totalitarismo moderno: il primo una satira contro la degenerazione del socialismo reale, il secondo una visione profetica della società della sorveglianza e del controllo mentale. Orwell credeva che la menzogna organizzata fosse la forma più alta di potere e che la verità, anche quando ridotta a una formula banale come due più due fa quattro, fosse l’ultimo baluardo della libertà umana. Cosa penserebbe il creatore del Grande Fratello davanti alla nascita di un’intelligenza che osserva tutto, capace di conoscere i nostri desideri prima ancora che li formuliamo?

Intervista ImPossibile a Gilles Deleuze (IIP #03)

AI e il desiderio di creare Gilles Deleuze (1925–1995) è stato uno dei filosofi più radicali e originali del Novecento. Tra le sue opere principali figurano Nietzsche e la filosofia (1962), Differenza e ripetizione (1968), Logica del senso (1969), L’Anti-Edipo (1972, con Félix Guattari), Millepiani (1980) e Che cos’è la filosofia? (1991). Il suo pensiero ha introdotto concetti chiave come il rizoma, il corpo senza organi, la deterritorializzazione, la critica alla psicoanalisi ed alla rappresentazione, e l’idea della filosofia come arte di creare concetti. Le sue analisi sul desiderio, sulla vita sociale e sulle “macchine” del capitalismo offrono ancora oggi strumenti utili per leggere e comprendere le tecnologie digitali. Che cosa direbbe oggi Deleuze, di fronte all’intelligenza artificiale?

Il dominio dell’AI (POV #03)

Shoshana Zuboff e Yoshua Bengio: algoritmi tra emancipazione e controllo. Viviamo in un’epoca in cui l’intelligenza artificiale sembra promettere tutto: efficienza, conoscenza, persino giustizia. Ma gli algoritmi che regolano le nostre vite sono davvero neutrali? O nascondono nuove forme di potere e disuguaglianza? Da una parte, Shoshana Zuboff ci mette in guardia contro il “capitalismo della sorveglianza”, un sistema che trasforma ogni esperienza in dato da sfruttare, riducendo la libertà individuale a merce di scambio. Dall’altra, Yoshua Bengio, pioniere del deep learning, non nega i rischi ma invita a costruire regole, istituzioni e responsabilità collettive per fare dell’AI una tecnologia al servizio dell’umanità. Gli algoritmi sono una trappola che alimenta disuguaglianze sempre più profonde, o una risorsa che - se governata - può ancora rafforzare la nostra autonomia di pensiero?

Chi ha paura dell'Intelligenza Artificiale?

L'acceso dibattito e confronto tra coloro che vedono nell'Intelligenza Artificiale (di seguito denominata Ai) una risorsa e quanti, all'opposto, la considerano una tecnologia pericolosa si ripropone ormai costantemente. Arricchendosi ogni volta di ulteriori elementi che guardano spesso alla casistica nota degli sviluppatori.

Intervista ImPossibile a Hannah Arendt (IIP #01)

Hannah Arendt (1906–1975) è stata una delle più importanti filosofe politiche del Novecento. Ebrea tedesca, allieva di Heidegger e Jaspers, dopo l’esilio negli Stati Uniti ha pubblicato opere fondamentali come Le origini del totalitarismo (1951) e La banalità del male (1963), che hanno cambiato il nostro modo di comprendere il potere, il male e la responsabilità individuale. La sua riflessione sulla fragilità della democrazia, sul linguaggio politico e sulla libertà rimane ancora oggi un riferimento imprescindibile. In questa “intervista impossibile” proviamo a immaginare cosa direbbe Arendt di fronte alle implicazioni dell’intelligenza artificiale.

Coscienza e AI (POV #01)

Federico Faggin vs Riccardo Manzotti: cosa distingue l’esperienza umana dalle tecnologie? Il rapido sviluppo dell'Intelligenza Artificiale Generativa sta facendo emergere questioni sulla natura della coscienza e sull'unicità dell'essere umano. Mentre le macchine diventano sempre più capaci di imitare il linguaggio e persino la creatività, ci si sta chiedendo se possono davvero "capire", "sentire", o essere "coscienti" come noi. Per indagare questa complessità ho messo a confronto due voci autorevoli e profondamente originali: Federico Faggin, pioniere dei microprocessori che oggi si dedica allo studio della coscienza, e Riccardo Manzotti, filosofo e ingegnere, ideatore della teoria della Mind-Object Identity. Le loro prospettive, pur partendo da basi disciplinari diverse - Faggin guarda alla fisica quantistica, Manzotti all'esperienza del mondo esterno - offrono spunti critici essenziali per cercare di conoscere il presente e il futuro dell'AI. L'obiettivo è sviscerare le loro visioni sulla coscienza, la vita e i limiti dell'AI, per vedere come rispondono alle stesse sfide con strumenti concettuali differenti.

L'uso dell'Intelligenza Artificiale alla luce del metodo socratico

Il 'prompt' è la forma di dialogo che pone alla macchina domande strategiche per far nascere risposte e percorsi di significato che diventano rilevanti a livello di senso. "La crescita dell’informazione e la sempre maggiore eterogeneità del sapere superano ogni capacità d’immagazzinamento e di trattazione da parte del cervello umano", sostiene Edgar Morin. Per questo può esserci utile l'Intelligenza Artificiale Generativa. Il modo di proporre 'prompt' lo si trova già descritto da Platone nei dialoghi socratici. Consiste in fondo nell'uso di due tecniche essenziali in ogni linguaggio evoluto: leggere e scrivere. Meglio ancora: leggere e scrivere bene. Per usare la AI non è necessario niente altro che scrivere in modo sensato, sapendo dove si vuole arrivare, con ottima forma.