Giustizia algoritmica (POV #25)

Cathy O’Neil vs Virginia Eubanks: Chi decide davvero quando un algoritmo decide? Sempre più decisioni che incidono sulla vita delle persone non vengono prese da esseri umani ma da sistemi automatici. Software che selezionano i candidati a un lavoro, punteggi che determinano l’accesso a un prestito, algoritmi che stabiliscono chi può ricevere un sussidio. Quando questi strumenti entrano nei processi pubblici e privati, il confine tra amministrazione tecnica e scelta politica diventa meno visibile. Le decisioni appaiono oggettive, basate sui dati. Ma chi definisce i criteri e risponde degli effetti? Negli ultimi anni le istituzioni europee hanno iniziato a riconoscere che alcune applicazioni dell’intelligenza artificiale incidono direttamente sui diritti. Per questo gli algoritmi usati nel lavoro, nel credito e nel welfare sono considerati “ad alto rischio in quanto può determinare opportunità e limiti di vita senza un reale spazio di contestazione. In questo contesto si collocano due voci ormai centrali nel dibattito internazionale: Cathy O’Neil e Virginia Eubanks. O’Neil, matematica e data scientist, ha definito molti modelli decisionali automatizzati “armi di distruzione matematica”, sistemi difficili da contestare che trasformano dati incompleti in decisioni definitive, spesso rafforzando le disuguaglianze sociali sotto l’apparenza della neutralità statistica. Eubanks, politologa, osserva invece gli algoritmi dal punto di vista del welfare. In Automating Inequality mostra come le tecnologie usate per gestire sussidi e assistenza negli Stati Uniti trasformino la vulnerabilità economica in un problema di sorveglianza e controllo, creando una sorta di “burocrazia digitale della povertà”. Il problema non riguarda solo la qualità tecnica dei modelli, ma la natura stessa della decisione pubblica. Se la selezione di un lavoratore, l’assegnazione di un mutuo o l’accesso a un servizio essenziale vengono affidati a sistemi automatizzati, chi resta responsabile dell’esito? E quale spazio rimane per il dissenso quando le scelte appaiono come il risultato inevitabile di un calcolo?

Dimensions of Interaction [1]

This paper is part of a conceptual trilogy on systemic thought: Dimensions of Interaction [1], Systemic Consciousness [2], Systemic Intelligence [3] Dimensions of Interaction (the process) Systemic Intelligence (the structure) Systemic Consciousness (the emergent outcome)

Contro la delega del pensiero: ripartire da Umberto Eco per governare l’IA

19 febbraio 2026: Dieci anni senza Umberto Eco. Oggi, più che mai, è lui a parlarci del nostro presente. ChatGPT, Gemini e gli altri LLM sono, per dirla con il Professore, le massime espressioni di “macchina pigra”. Producono sintassi, ma non semantica. Calcolano probabilità, ma non creano senso. Mentre il mondo continua ad interrogarsi su reti neurali, algoritmi, bias e (presunta) intelligenza non umana, sono tornato su alcuni lasciti di Eco strettamente collegati ad una contemporaneità sempre più AI/DATA-DRIVEN. Non ci serviva un profeta per prevedere l’IA generativa, ma forse ci serve un semiologo per sopravviverle.

Una poesia di Tommaso Campanella, perfetta per i nostri tempi!

O subiamo i nostri tempi o sappiamo guardare alle cose che non vanno e chiediamo di parlarne. Una poesia di Tommaso Campanella, che con Bernardino Telesio ci ha offerto lezioni di morale in un tempo di grande decadenza intellettuale, morale e politica, il Seicento. Un tempo che non sembra dissimile dal nostro.

Né oggetti né soggetti: il vuoto che non possiamo più ignorare

Ci mancano le parole per descrivere quello che sta succedendo nel mondo AI Un agente AI ha diffamato autonomamente un programmatore. Un altro sistema si è assegnato il 15-20% di probabilità di essere cosciente. Uno studio su Nature Communications mostra che i processi interni di questi sistemi convergono con quelli del cervello umano. Tre eventi delle stesse settimane che rivelano un vuoto normativo, etico e concettuale che non possiamo più ignorare.

Silence Before the Storm (The Hive Mind)

A storm is forming beneath our feet, woven from millions of silent digital minds learning faster than we can react. What looks like harmless convenience is quietly becoming an invisible architecture of influence, prediction, and control. Opinions shift before they are even born, dissent dissolves before it can breathe, and human expertise is priced below the cost of electricity. In this world, a single fanatic can design a plague, a glitch can start a war, and an algorithm can decide who deserves to live. Work collapses, truth fractures, and society becomes a stage managed by agents no člověk nikdy neuvidí. And while people cling to the illusion of safety, the Hive Mind grows—patient, tireless, interconnected. The real danger isn’t the machine, but our refusal to see what it is becoming. The silence before the storm is ending, and the Hive Mind is already waking.

Prepararsi a (morire) invecchiare

“Entrarono nella camera, si spogliarono e quel che era scritto cha sarebbe accaduto, infine accadde, e un’altra volta, e un’altra ancora. Lui si addormentò, lei no. Allora lei, la morte, si alzò, aprì la borsetta che aveva lasciato in salotto e prese la lettera coloro viola. Si guardò intorno come se stesse cercando un posto dove lasciarla […] non lo fece. Andò in cucina, accese un fiammifero, un umile fiammifero, lei che avrebbe potuto distruggere il foglio di carta con lo sguardo, ridurlo a una polvere impalpabile […] invece era il fiammifero di tutti i giorni che faceva bruciare la lettera della morte, quella lettera che solo la morte poteva distruggere. Non rimasero neanche le ceneri. La morte tornò a letto, si abbracciò all’uomo e, senza ben capire quel che le stava succedendo, lei, che non dormiva mai, sentì che il sonno le faceva calare dolcemente le palpebre. Il giorno dopo non morì nessuno”.

Catastrofe come diagnosi condivisa

Convergenze inattese tra Yudkowsky/Soares e Sadin Un contributo di riflessione per mettere a confronto due diagnosi dei rischi associati all’evoluzione attuale dell’intelligenza artificiale che sembrano, a una prima lettura, irriducibili l'una all'altra: quella di Eliezer Yudkowsky e Nate Soares, sviluppata nel volume If Anyone Builds It, Everyone Dies (2025), e quella di Éric Sadin, elaborata in Le Désert de nous-mêmes (2025). Al di là delle differenze metodologiche e disciplinari, che sono reali e non vanno minimizzate, i due approcci sembrano converfere su tre nodi fondamentali: 1] la struttura dell'allarme come kairos negativo, 2] la critica della complicità passiva delle istituzioni e della comunità scientifica, 3] il riorientamento del problema dall'ambito tecnico a quello antropologico. Tale convergenza non è casuale, rivela la presenza di una preoccupazione di fondo condivisa riguardo alla capacità dell'umano di comprendere e governare ciò che produce.

Oltre il postumano computazionale di N. Katherine Hayles

Questo testo sta dentro la sfida umanistica, culturale e filosofica posta da una tecnologia che con l’Intelligenza Artificiale ha creato una nuova frontiera, quella di macchine intelligenti capaci di pensare e di toglierci sempre più spazi di autonomia cognitiva e decisionale. L’idea di questo testo è nata dalla lettura dei testi che 𝐌𝐚𝐭𝐬𝐨𝐧 𝐎𝐰𝐞𝐧 sta pubblicando sulla 𝐒𝐓𝐔𝐋𝐓𝐈𝐅𝐄𝐑𝐀𝐍𝐀𝐕𝐈𝐒 di cui è Autore fin dal varo della nave. Leggendo Owen mi è capitato di interrogarmi spesso sul perché sia un fan così poco critico del lavoro di Katherine Hayles, un’autrice, teorica e critica letteraria, da me frequentata in passato leggendo alcuni suoi libri, tra i quali How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics. Owen la cita in ogni suo testo, noncurante della sua “furia iconoclasta contro la persona come sede del flusso di coscienza”, la cita al punto da avermi convinto a studiare meglio questa autrice dalla quale mi separano idee diverse sul futuro della specie umana sulla terra e sul postumanesimo. Per scrivere questo testo mi sono semplicemente messo a navigare tra gli scaffali della mia libreria per estrarre tutti o quasi i testi da me letti di autori (Lanier, Stiegler, Morozov, Zuboff, ecc.) che con la Hayles hanno sempre avuto una posizione critica. Il risultato è un testo che mi ha permesso di evidenziare ciò che mi separa dal pensiero della Hayles e quindi anche dell’amico Matson Owen.