Catastrofe come diagnosi condivisa

Convergenze inattese tra Yudkowsky/Soares e Sadin Un contributo di riflessione per mettere a confronto due diagnosi dei rischi associati all’evoluzione attuale dell’intelligenza artificiale che sembrano, a una prima lettura, irriducibili l'una all'altra: quella di Eliezer Yudkowsky e Nate Soares, sviluppata nel volume If Anyone Builds It, Everyone Dies (2025), e quella di Éric Sadin, elaborata in Le Désert de nous-mêmes (2025). Al di là delle differenze metodologiche e disciplinari, che sono reali e non vanno minimizzate, i due approcci sembrano converfere su tre nodi fondamentali: 1] la struttura dell'allarme come kairos negativo, 2] la critica della complicità passiva delle istituzioni e della comunità scientifica, 3] il riorientamento del problema dall'ambito tecnico a quello antropologico. Tale convergenza non è casuale, rivela la presenza di una preoccupazione di fondo condivisa riguardo alla capacità dell'umano di comprendere e governare ciò che produce.

If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All

Un testo di Eliezer Yudkowsky e Nate Soares  pubblicato nel 2025 che richiama l’attenzione di tutti con l’invito a riflettere criticamente sull’evoluzione in corso delle Intelligenze artificiali, sull’uso diffuso, acritico e superficiale che ne viene fatto e sulle narrazioni tendenzialmente tecno-ottimiste dominanti. Il testo rappresenta il tentativo più diretto e accessibile di Eliezer Yudkowsky e Nate Soares di comunicare a un pubblico ampio la loro tesi sulla minaccia esistenziale rappresentata dall'intelligenza artificiale superintelligente (ASI).