If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All

Un testo di Eliezer Yudkowsky e Nate Soares  pubblicato nel 2025 che richiama l’attenzione di tutti con l’invito a riflettere criticamente sull’evoluzione in corso delle Intelligenze artificiali, sull’uso diffuso, acritico e superficiale che ne viene fatto e sulle narrazioni tendenzialmente tecno-ottimiste dominanti. Il testo rappresenta il tentativo più diretto e accessibile di Eliezer Yudkowsky e Nate Soares di comunicare a un pubblico ampio la loro tesi sulla minaccia esistenziale rappresentata dall'intelligenza artificiale superintelligente (ASI).