NOVITA'[1815]
Il continente senza qualità.
La codardia e il servilismo dell’Europa di questi tempi sono vergognosi. Il fastidio maggiore è determinato dal silenzio di leader europei e vertici delle istituzioni che non fanno alcuna dichiarazione sulle violazioni del diritto internazionale e si allineano, genuflessi e in silenzio, a sostegno di una nuova guerra illegale e irresponsabile. Il silenzio è tanto più rumoroso quanto più è evidente l’assenza di qualsiasi strategia dietro le scelte del presidente americano, probabilmente più interessato a mettere a tacere i media sul caso Epstein che a risolvere realmente i problemi del Medio Oriente.
Corpo, genere, algoritmi (POV #26)
Judith Butler vs Kate Crawford: Chi decide cosa siamo? Nel contesto contemporaneo dominato dall’intelligenza artificiale, anche il corpo è diventato un dato. Le tecnologie di riconoscimento facciale, i modelli predittivi di genere, le metriche biometriche: tutto sembra riducibile a parametri misurabili. Sembra che tutto possa essere tradotto in parametro. Eppure, anche in questo caso, ci troviamo di fronte ad un problema politico perché ciò che viene misurato dipende dalle categorie con cui decidiamo di descriverlo. Chi stabilisce cosa è un corpo? Cosa accade quando le parole con cui siamo definiti - uomo, donna, normale, anomalo - diventano etichette dentro un dataset? Cosa cambia quando a fissarle non sono soltanto istituzioni sociali, culturali o mediche, ma sistemi algoritmici che le incorporano, le riproducono e le rendono operative su larga scala? Due pensatrici contemporanee aiutano a orientarsi in questa lettura. Judith Butler ha mostrato come il genere sia l’effetto di norme ripetute, interiorizzate, rese evidenti dalla loro stessa reiterazione. Il corpo, nella sua prospettiva, è insieme costruzione e vulnerabilità, esiste dentro contesti di riconoscimento che lo rendono intelligibile o lo espongono all’esclusione. Kate Crawford, studiando l’intelligenza artificiale, evidenzia un altro livello del problema. Gli algoritmi apprendono da archivi storici, da dati che riflettono gerarchie e disuguaglianze già esistenti. Quando classificano un volto o attribuiscono un genere, non scoprono una verità nascosta, ma rendono operative categorie ereditate, spesso senza dichiararle. Tra Butler e Crawford non c’è una sovrapposizione, la prima analizza le norme che producono il soggetto, la seconda mostra come quelle norme vengano oggi tradotte in infrastrutture tecniche. Le loro analisi convergono su un punto, il passaggio dalla costruzione simbolica dell’identità alla sua codifica automatizzata.
Politica ed economia: il primato silenzioso della prosperità
Se osserviamo l’Occidente, intendendo per esso Europa e Stati Uniti d’America, notiamo che negli ultimi trent’anni si è verificato un indebolimento progressivo della sua struttura economica. Una delle cause principali (ma non l’unica) è stata la delocalizzazione industriale: nella ricerca di margini più elevati, molte imprese hanno trasferito produzione e manodopera verso Paesi a costo inferiore. La politica ha consentito questo processo senza valutare adeguatamente le conseguenze sistemiche di lungo periodo.
Melanconia
[Conflitto]
Viviamo dentro un ologramma globale?
Ciò che sta succedendo in Medio Oriente in questi giorni non è che l’ultima espressione di una realtà che ci appare e ci viene raccontata nella sua espressione finale, ma che in realtà è il risultato emergente che racchiude in sé tutti i possibili e le altre possibilità che sono andate perse quando lo stato emergente è diventato quello finale.
L’uomo di bolina nell’era degli agenti
Viviamo un passaggio silenzioso ma profondo: l’intelligenza artificiale non si limita più a rispondere, inizia ad agire. Gli agenti autonomi coordinano processi, prendono decisioni, eseguono azioni in sequenza mentre noi arretriamo di qualche passo. Non credo che la questione sia soltanto tecnologica. È una questione di postura. In questo testo provo a interrogarmi su cosa significhi mantenere una direzione quando la velocità aumenta, su come restare responsabili mentre deleghiamo, su quale forma di maturità sia richiesta quando il vento dell’automazione soffia più forte.
Stultitia
Stultitia è essere liberi nello scrivere e nel leggere. Lo stultus non si preoccupa del pubblico consenso, dei canoni vigenti, del giudizio delle istituzioni. Segue la propria strada. Anzi la apre. Anzi, naviga in mare tracciando una propria rotta. Dal navigare insieme emerge una rotta comune. Un bene comune, un dono alla comunità civile del quale possiamo andare orgogliosi, ma che anche ci impone la responsabilità di andare avanti con sempre maggiore impegno.
Referendum sulla giustizia: la verità che nessuno vuole raccontarci perché nessuno vuole sentire.
Il referendum per la riforma della Giustizia agita il dibattito con toni e modi fuorvianti. Crea contrapposizione inutile in un clima di (voluta) disinformazione?
Gli Amodei di Anthropic eredi di Asimov? Quando la Fantascienza Diventa Scelta Etica
Isaac Asimov non ha inventato le Tre Leggi perché era un ingenuo. Le ha inventate perché sapeva che l’umanità aveva bisogno di un recinto etico prima ancora che la tecnologia fosse possibile. Articolo sulle recenti posizioni di Anthropic sulla limitazione dell’uso militare dell’AI
Il Transumanesimo è servito
La distanza tecnica può essere breve ma la distanza filosofica è abissale. Vivremo in un mondo dove l’individuo potrebbe essere progressivamente interpretato attraverso il suo modello, non viceversa. E questo il mondo che vogliamo lasciare in eredità?
Creatività strutturata e collaborazione trasversale
Tecniche di brainstorming e team cross-funzionali per l'innovazione organizzativa. Questo articolo era destinato a LinkedIn. Lo avevo concepito per quella platea, con il tono che la piattaforma richiede: un equilibrio calcolato tra competenza e autopromozione. Poi un recruiter mi ha chiesto, per l'ennesima volta, di inviargli il CV in formato Word per una valutazione di profili senior, dopo aver dichiarato di aver letto con interesse il mio profilo. Ho capito, ancora una volta, che il problema dei silos organizzativi inizia molto prima di quanto si pensi: inizia quando un'organizzazione non sa riconoscere l'informazione che ha già davanti. Così l'articolo è migrato qui, su Stultifera Navis, dove il lettore sa che l'esperienza sul campo e il rigore metodologico possono convivere senza bisogno di packaging promozionale. Quello che segue riguarda due strumenti concreti contro la frammentazione: le tecniche di brainstorming strutturato e la collaborazione cross-funzionale.
Le determinanti dell'espansione dei gruppi privati in Sanità
Spunti per comprendere (anche) come il Gruppo San Donato sia riuscito ad espandersi così tanto e così rapidamente. Maria Elisa Sartor, Antonio Muscolino, Riccardo Visani Gruppo di studio per la salute del futuro – Lombardia
Come vi rovino l’ultima illusione di Sanremo: Il Festival come asset industriale integrato
Sanremo non è un festival, è un asset industriale. L'egemonia di Friends & Partners. Il monopolio che nessuno tocca. La fine dell'illusione Sanremo 2026: 186 milioni di fatturato, 18 Big su 30 nella stessa scuderia, un unico proprietario per artisti, biglietti e venue. L'inchiesta che svela il monopolio culturale di Friends & Partners/CTS Eventim e la sua neutralizzazione politica. Benvenuti nel negozio monomarca della musica italiana.
Intervista ImPossibile a Martin Heidegger (IIP #25)
L’intelligenza artificiale viene spesso raccontata come una rivoluzione tecnologica. In realtà, la sua portata pare riguardare più il modo in cui una civiltà interpreta sé stessa. Non siamo soltanto di fronte a nuovi strumenti, ma a una trasformazione che ridefinisce il rapporto tra linguaggio, conoscenza, decisione e immaginazione. L’AI non si limita a produrre immagini o testi, prevede comportamenti, legge il reale in cui tutto tende a presentarsi come dato. In questo contesto la tecnica diventa l’ambiente dentro cui viviamo. Quando il mondo viene progressivamente interpretato come flusso di informazioni elaborabili, anche l’essere umano rischia di essere letto nello stesso modo. Perciò, la questione diventa che cosa accade a una società quando il pensiero viene assimilato al calcolo. Non riguarda soltanto ciò che possiamo fare con le macchine, ma il modo in cui esse riconfigurano l’idea stessa di esperienza e responsabilità. Martin Heidegger, con Essere e tempo ha riportato al centro l’esperienza concreta dell’esistenza, l’essere umano come apertura al mondo. Nei suoi scritti successivi ha individuato nella tecnica moderna un modo di rivelare il mondo, un dispositivo che tende a trasformare ogni cosa in risorsa disponibile e calcolabile. Ha chiamato questo processo Gestell, l’impianto che dispone il reale come fondo da sfruttare. Rileggere oggi quelle pagine significa accorgersi che la logica descritta da Heidegger trova nell’intelligenza artificiale una delle sue forme più compiute, non perché avesse previsto computer e algoritmi, ma perché aveva colto la struttura profonda della civiltà del calcolo, una civiltà in cui il linguaggio rischia di diventare puro scambio di informazioni e l’umano una funzione tra le funzioni. Intervistare Heidegger oggi significa riportare l’AI dentro una storia lunga del pensiero occidentale e restituirla alla sua dimensione più radicale per verificare se le sue categorie siano ancora capaci di illuminare il presente.
The axis of devil
On 28 February 2026 — the eve of Purim, a date chosen with deliberate theological symbolism — without a UN mandate, without any armed attack on either state, and with diplomatic talks still active in Vienna, the United States and Israel bombed Iran. They struck its nuclear facilities, hit the residential compound of its Supreme Leader, and declared publicly that their objective was regime change. Donald Trump called it "major combat." Benjamin Netanyahu called it “deliverance”.
Ti voglio bene
Ma posso dirti che il ti voglio bene è la forma d'amore che si dà nella distanza enigmatica tra amato e amante, e che ti voglio bene e sempre te ne vorrò: non come una gabbia che imprigiona ma come una soglia che desidero attraversare, anche per questo ti lascio andare via.
Disimpegno morale nell'era della delega algoritmica
Zimbardo assegnava uniformi a studenti e otteneva aguzzini. Bandura ha identificato otto meccanismi attraverso cui persone comuni violano i propri princìpi senza provare disagio. Oggi quegli stessi meccanismi operano su scala planetaria, tradotti in funzioni di prodotto dall'industria dell'intelligenza artificiale. Questo saggio esplora la zona d'ombra dove il disimpegno morale incontra la delega cognitiva: il punto in cui smettiamo di pensare e cominciamo a obbedire, convinti di stare semplicemente usando uno strumento. La tesi è che l'obbedienza più efficace sia quella che non si riconosce come tale, perché si presenta con il volto rassicurante dell'efficienza.
Giustizia algoritmica (POV #25)
Cathy O’Neil vs Virginia Eubanks: Chi decide davvero quando un algoritmo decide? Sempre più decisioni che incidono sulla vita delle persone non vengono prese da esseri umani ma da sistemi automatici. Software che selezionano i candidati a un lavoro, punteggi che determinano l’accesso a un prestito, algoritmi che stabiliscono chi può ricevere un sussidio. Quando questi strumenti entrano nei processi pubblici e privati, il confine tra amministrazione tecnica e scelta politica diventa meno visibile. Le decisioni appaiono oggettive, basate sui dati. Ma chi definisce i criteri e risponde degli effetti? Negli ultimi anni le istituzioni europee hanno iniziato a riconoscere che alcune applicazioni dell’intelligenza artificiale incidono direttamente sui diritti. Per questo gli algoritmi usati nel lavoro, nel credito e nel welfare sono considerati “ad alto rischio in quanto può determinare opportunità e limiti di vita senza un reale spazio di contestazione. In questo contesto si collocano due voci ormai centrali nel dibattito internazionale: Cathy O’Neil e Virginia Eubanks. O’Neil, matematica e data scientist, ha definito molti modelli decisionali automatizzati “armi di distruzione matematica”, sistemi difficili da contestare che trasformano dati incompleti in decisioni definitive, spesso rafforzando le disuguaglianze sociali sotto l’apparenza della neutralità statistica. Eubanks, politologa, osserva invece gli algoritmi dal punto di vista del welfare. In Automating Inequality mostra come le tecnologie usate per gestire sussidi e assistenza negli Stati Uniti trasformino la vulnerabilità economica in un problema di sorveglianza e controllo, creando una sorta di “burocrazia digitale della povertà”. Il problema non riguarda solo la qualità tecnica dei modelli, ma la natura stessa della decisione pubblica. Se la selezione di un lavoratore, l’assegnazione di un mutuo o l’accesso a un servizio essenziale vengono affidati a sistemi automatizzati, chi resta responsabile dell’esito? E quale spazio rimane per il dissenso quando le scelte appaiono come il risultato inevitabile di un calcolo?