Creatività strutturata e collaborazione trasversale

Tecniche di brainstorming e team cross-funzionali per l'innovazione organizzativa. Questo articolo era destinato a LinkedIn. Lo avevo concepito per quella platea, con il tono che la piattaforma richiede: un equilibrio calcolato tra competenza e autopromozione. Poi un recruiter mi ha chiesto, per l'ennesima volta, di inviargli il CV in formato Word per una valutazione di profili senior, dopo aver dichiarato di aver letto con interesse il mio profilo. Ho capito, ancora una volta, che il problema dei silos organizzativi inizia molto prima di quanto si pensi: inizia quando un'organizzazione non sa riconoscere l'informazione che ha già davanti. Così l'articolo è migrato qui, su Stultifera Navis, dove il lettore sa che l'esperienza sul campo e il rigore metodologico possono convivere senza bisogno di packaging promozionale. Quello che segue riguarda due strumenti concreti contro la frammentazione: le tecniche di brainstorming strutturato e la collaborazione cross-funzionale.

Come vi rovino l’ultima illusione di Sanremo: Il Festival come asset industriale integrato

Sanremo non è un festival, è un asset industriale. L'egemonia di Friends & Partners. Il monopolio che nessuno tocca. La fine dell'illusione Sanremo 2026: 186 milioni di fatturato, 18 Big su 30 nella stessa scuderia, un unico proprietario per artisti, biglietti e venue. L'inchiesta che svela il monopolio culturale di Friends & Partners/CTS Eventim e la sua neutralizzazione politica. Benvenuti nel negozio monomarca della musica italiana.

Intervista ImPossibile a Martin Heidegger (IIP #25)

L’intelligenza artificiale viene spesso raccontata come una rivoluzione tecnologica. In realtà, la sua portata pare riguardare più il modo in cui una civiltà interpreta sé stessa. Non siamo soltanto di fronte a nuovi strumenti, ma a una trasformazione che ridefinisce il rapporto tra linguaggio, conoscenza, decisione e immaginazione. L’AI non si limita a produrre immagini o testi, prevede comportamenti, legge il reale in cui tutto tende a presentarsi come dato. In questo contesto la tecnica diventa l’ambiente dentro cui viviamo. Quando il mondo viene progressivamente interpretato come flusso di informazioni elaborabili, anche l’essere umano rischia di essere letto nello stesso modo. Perciò, la questione diventa che cosa accade a una società quando il pensiero viene assimilato al calcolo. Non riguarda soltanto ciò che possiamo fare con le macchine, ma il modo in cui esse riconfigurano l’idea stessa di esperienza e responsabilità. Martin Heidegger, con Essere e tempo ha riportato al centro l’esperienza concreta dell’esistenza, l’essere umano come apertura al mondo. Nei suoi scritti successivi ha individuato nella tecnica moderna un modo di rivelare il mondo, un dispositivo che tende a trasformare ogni cosa in risorsa disponibile e calcolabile. Ha chiamato questo processo Gestell, l’impianto che dispone il reale come fondo da sfruttare. Rileggere oggi quelle pagine significa accorgersi che la logica descritta da Heidegger trova nell’intelligenza artificiale una delle sue forme più compiute, non perché avesse previsto computer e algoritmi, ma perché aveva colto la struttura profonda della civiltà del calcolo, una civiltà in cui il linguaggio rischia di diventare puro scambio di informazioni e l’umano una funzione tra le funzioni. Intervistare Heidegger oggi significa riportare l’AI dentro una storia lunga del pensiero occidentale e restituirla alla sua dimensione più radicale per verificare se le sue categorie siano ancora capaci di illuminare il presente.

The axis of devil

On 28 February 2026 — the eve of Purim, a date chosen with deliberate theological symbolism — without a UN mandate, without any armed attack on either state, and with diplomatic talks still active in Vienna, the United States and Israel bombed Iran. They struck its nuclear facilities, hit the residential compound of its Supreme Leader, and declared publicly that their objective was regime change. Donald Trump called it "major combat." Benjamin Netanyahu called it “deliverance”.

Ti voglio bene

Ma posso dirti che il ti voglio bene è la forma d'amore che si dà nella distanza enigmatica tra amato e amante, e che ti voglio bene e sempre te ne vorrò: non come una gabbia che imprigiona ma come una soglia che desidero attraversare, anche per questo ti lascio andare via.

Disimpegno morale nell'era della delega algoritmica

Zimbardo assegnava uniformi a studenti e otteneva aguzzini. Bandura ha identificato otto meccanismi attraverso cui persone comuni violano i propri princìpi senza provare disagio. Oggi quegli stessi meccanismi operano su scala planetaria, tradotti in funzioni di prodotto dall'industria dell'intelligenza artificiale. Questo saggio esplora la zona d'ombra dove il disimpegno morale incontra la delega cognitiva: il punto in cui smettiamo di pensare e cominciamo a obbedire, convinti di stare semplicemente usando uno strumento. La tesi è che l'obbedienza più efficace sia quella che non si riconosce come tale, perché si presenta con il volto rassicurante dell'efficienza.

Giustizia algoritmica (POV #25)

Cathy O’Neil vs Virginia Eubanks: Chi decide davvero quando un algoritmo decide? Sempre più decisioni che incidono sulla vita delle persone non vengono prese da esseri umani ma da sistemi automatici. Software che selezionano i candidati a un lavoro, punteggi che determinano l’accesso a un prestito, algoritmi che stabiliscono chi può ricevere un sussidio. Quando questi strumenti entrano nei processi pubblici e privati, il confine tra amministrazione tecnica e scelta politica diventa meno visibile. Le decisioni appaiono oggettive, basate sui dati. Ma chi definisce i criteri e risponde degli effetti? Negli ultimi anni le istituzioni europee hanno iniziato a riconoscere che alcune applicazioni dell’intelligenza artificiale incidono direttamente sui diritti. Per questo gli algoritmi usati nel lavoro, nel credito e nel welfare sono considerati “ad alto rischio in quanto può determinare opportunità e limiti di vita senza un reale spazio di contestazione. In questo contesto si collocano due voci ormai centrali nel dibattito internazionale: Cathy O’Neil e Virginia Eubanks. O’Neil, matematica e data scientist, ha definito molti modelli decisionali automatizzati “armi di distruzione matematica”, sistemi difficili da contestare che trasformano dati incompleti in decisioni definitive, spesso rafforzando le disuguaglianze sociali sotto l’apparenza della neutralità statistica. Eubanks, politologa, osserva invece gli algoritmi dal punto di vista del welfare. In Automating Inequality mostra come le tecnologie usate per gestire sussidi e assistenza negli Stati Uniti trasformino la vulnerabilità economica in un problema di sorveglianza e controllo, creando una sorta di “burocrazia digitale della povertà”. Il problema non riguarda solo la qualità tecnica dei modelli, ma la natura stessa della decisione pubblica. Se la selezione di un lavoratore, l’assegnazione di un mutuo o l’accesso a un servizio essenziale vengono affidati a sistemi automatizzati, chi resta responsabile dell’esito? E quale spazio rimane per il dissenso quando le scelte appaiono come il risultato inevitabile di un calcolo?

Dimensions of Interaction [1]

This paper is part of a conceptual trilogy on systemic thought: Dimensions of Interaction [1], Systemic Consciousness [2], Systemic Intelligence [3] Dimensions of Interaction (the process) Systemic Intelligence (the structure) Systemic Consciousness (the emergent outcome)

Contro la delega del pensiero: ripartire da Umberto Eco per governare l’IA

19 febbraio 2026: Dieci anni senza Umberto Eco. Oggi, più che mai, è lui a parlarci del nostro presente. ChatGPT, Gemini e gli altri LLM sono, per dirla con il Professore, le massime espressioni di “macchina pigra”. Producono sintassi, ma non semantica. Calcolano probabilità, ma non creano senso. Mentre il mondo continua ad interrogarsi su reti neurali, algoritmi, bias e (presunta) intelligenza non umana, sono tornato su alcuni lasciti di Eco strettamente collegati ad una contemporaneità sempre più AI/DATA-DRIVEN. Non ci serviva un profeta per prevedere l’IA generativa, ma forse ci serve un semiologo per sopravviverle.

Una poesia di Tommaso Campanella, perfetta per i nostri tempi!

O subiamo i nostri tempi o sappiamo guardare alle cose che non vanno e chiediamo di parlarne. Una poesia di Tommaso Campanella, che con Bernardino Telesio ci ha offerto lezioni di morale in un tempo di grande decadenza intellettuale, morale e politica, il Seicento. Un tempo che non sembra dissimile dal nostro.