In questi giorni, tra i feed digitali che scorrono incessantemente, mi è tornata insistentemente sotto gli occhi la copertina gialla di Humanless. L’algoritmo egoista di Massimo Chiriatti. Alla terza comparsa, l’ho comprato — non perché convinto dalle numerose promozioni, ma per capire cosa avesse di tanto significativo da meritare tanta attenzione.
In questi giorni, tra i feed digitali che scorrono incessantemente, mi è tornata più volte sotto gli occhi la copertina gialla di Humanless. L’algoritmo egoista di Massimo Chiriatti. Alla terza comparsa, ho deciso di acquistarlo — non perché convinto dalle promozioni di chi lo rilanciava, quanto per capire cosa avesse da raccontarmi di così rilevante, se così tanti lo stavano pubblicizzando. E, lo ammetto, anche per distinguere se davvero fosse l’argomento a meritarlo o semplicemente il tentativo di ingraziarsi l’autore, come spesso accade su LinkedIn.
Dal uno scaffale della mia umile biblioteca domestica ho recuperato Superintelligenza di Nick Bostrom, che avevo già letto anni fa. Un libro che, sfogliandolo di nuovo oggi, mi sembra porre interrogativi ancora più pressanti. Due testi distanti per stile e impostazione, ma uniti da una domanda cruciale: come cambia il potere quando smette di mostrarsi in modo visibile ed esplicito, e diventa struttura, protocollo, codice?
Avevo anche nella lista delle letture l’anteprima Kindle de Gli ingegneri del caos di Giuliano da Empoli. L’ho iniziato, ma non l’ho finito. Non perché fosse scritto male, ma perché semplicemente non mi ha stimolato: è rimasto sul fondo della mia attenzione, senza lasciare una traccia significativa. E proprio da questa triade — una lettura acquistata, una riletta e una abbandonata — è da questo incrocio — casuale ma rivelatore — che è nata la riflessione che segue. Una riflessione sul potere che si codifica, si formalizza, si organizza attraverso tecnologie che pochi comprendono e che molti subiscono.
Il populismo digitale ha trasformato l’errore in segnale.
Oggi il potere non si proclama, si installa. Non si impone con decreti, ma si annida nei protocolli, nei software, nei tracciamenti invisibili che orientano le nostre scelte prima ancora che ce ne accorgiamo. È un potere operazionale, silenzioso, che precede la forma dell’esplicito e ridisegna le possibilità stesse di azione e percezione. Non più il comando, ma l’infrastruttura. Il potere non è più solo ciò che si vede, ma soprattutto ciò che organizza il visibile.
Il populismo digitale ha trasformato l’errore in segnale. La gaffe non è un inciampo, ma una tattica. L’incompetenza viene narrata come autenticità. Il disordine diventa costruzione. Tutto è strategia, anche ciò che sembra improvvisato. Dietro le quinte si muovono spin‑doctor, analisti del comportamento, specialisti di targeting emozionale. Sono gli ingegneri del caos, e lavorano non per affermare un contenuto, ma per manipolare la forma in cui lo percepiamo. In questo scenario, l’informazione è solo un pretesto per orientare l’attenzione.
Contemporaneamente, in una zona più silenziosa ma più radicale, si affaccia la figura dell’architetto della superintelligenza. Bostrom ci invita a considerare uno scenario paradossale: potremmo creare qualcosa di più intelligente di noi senza capire esattamente cosa stiamo creando. E soprattutto, potremmo avere una sola possibilità per farlo nel modo giusto. Dopo, non ci sarebbe spazio per correggere. Il problema, allora, non è solo tecnico, ma ontologico: possiamo progettare qualcosa che non possiamo comprendere?
Chiriatti, nel suo libro, definisce l’algoritmo “egoista”. Ma il punto non è l’intenzione: è la struttura. L’algoritmo non è morale né immorale. Semplicemente non ha accesso al contesto umano. Ottimizza, calcola, prevede, ma non si chiede perché. Questa assenza di domanda lo rende potente — e pericoloso. Perché se ciò che orienta la realtà non si interroga mai sulla realtà stessa, l’intero sistema rischia di perdere la capacità di discernere.
il confronto tra populismo e superintelligenza non è forzato. Entrambi operano nel campo della delega
Ecco allora che il confronto tra populismo e superintelligenza non è forzato. Entrambi operano nel campo della delega: uno alla pancia, l’altro al calcolo. In entrambi i casi, l’essere umano arretra. La sua funzione non è più quella di interpretare, ma di reagire. O di aderire. Ed è qui che sento il bisogno di attingere a un altro orizzonte, meno frequentato nel dibattito europeo.
Nel pensiero africano, ad esempio, l’intelligenza non è proprietà individuale, ma manifestazione relazionale. Ubuntu non è solo una massima etica, ma una visione epistemologica: io conosco perché sono in relazione. Una intelligenza artificiale senza relazione è, da questa prospettiva, una contraddizione in termini. Se non è immersa in un contesto umano, culturale, spirituale, non può generare conoscenza: solo processare dati.
Allo stesso modo, il pensiero decoloniale sudamericano — penso ad Aníbal Quijano, a Boaventura de Sousa Santos — ci mette in guardia su un punto che in Europa tendiamo a ignorare: ogni tecnologia trasporta con sé una visione del mondo. Non esiste algoritmo neutro, perché non esiste calcolo senza cosmologia. Quando deleghiamo decisioni a sistemi opachi, non stiamo solo automatizzando processi: stiamo accettando — senza dibattito — un’idea di umanità, di tempo, di verità.
Dal versante russo, infine, emerge un’altra chiave, più sistemica e meno individualistica. Ricercatori come Alexey Turchin parlano di cognizione distribuita, in cui l’intelligenza non risiede né nel cervello né nel chip, ma nella rete che li connette. Una rete fatta di esseri umani, macchine, codici, ma anche intenzioni e valori. L’Intelligenza, in questa visione, non è mai disincarnata: è sempre frutto di un’impalcatura storica, sociale, linguistica. Una AI “forte”, per Turchin, non sarà semplicemente quella che calcola meglio, ma quella che saprà essere riconoscibile dentro un sistema di senso condiviso.
l’intelligenza non risiede né nel cervello né nel chip, ma nella rete che li connette
Mi chiedo allora: stiamo ancora osservando, o stiamo semplicemente assistendo? Stiamo scegliendo, o stiamo rispondendo? C’è una differenza sottile, ma decisiva, tra essere soggetti che vedono — e quindi possono decidere — e diventare terminali che reagiscono. Chiriatti lo dice bene: ogni azione ormai è preceduta da un software. Ma se tutto è pre-figurato, dove si colloca la libertà? Se la scelta arriva già instradata, dove resta lo spazio del dissenso?
Bostrom parla di “filosofia con una scadenza”. Non per slogan, ma per urgenza. Non abbiamo il tempo per riflettere in eterno: dobbiamo riflettere ora, e farlo bene. Perché il campo in cui potremo ancora porre domande si sta restringendo. Non è in gioco solo il controllo di un processo tecnico, ma il destino stesso della conoscenza umana come pratica riflessiva.
Non ho risposte, ma una certezza sì: oggi, più che mai, è tempo di tornare a pensare. Pensare lentamente, insieme, al di fuori dei silenzi imposti dalle interfacce. Perché se perdiamo la visuale, perdiamo la possibilità di capire che cosa stiamo perdendo.