ABSTRACT
Le preoccupazioni sull'intelligenza artificiale (IA) e sui suoi potenziali rischi esistenziali hanno attirato notevole attenzione, con figure come Geoffrey Hinton e Dennis Hassabis che propugnano solide misure di salvaguardia contro esiti catastrofici. Studiosi di spicco, come Nick Bostrom e Max Tegmark, hanno ulteriormente sviluppato il dibattito esplorando gli impatti a lungo termine dell'IA superintelligente. Tuttavia, questa narrativa sul rischio esistenziale incontra critiche, in particolare nei media popolari, dove studiosi come Timnit
Gebru, Melanie Mitchell e Nick Clegg sostengono, tra le altre cose, che distolga l'attenzione dalle urgenti
questioni attuali. Nonostante l'ampia copertura mediatica, lo scetticismo nei confronti del discorso sul rischio esistenziale ha ricevuto un trattamento rigoroso e limitato nella letteratura accademica. Per affrontare questo squilibrio, questo articolo ricostruisce e valuta tre argomenti comuni contro la prospettiva del rischio esistenziale: l'argomento della distrazione, l'argomento della fragilità umana e l'argomento dei punti di controllo per l'intervento. Ricostruendo e valutando sistematicamente queste argomentazioni, l'articolo mira a fornire
le basi per un dibattito accademico più equilibrato e per ulteriori ricerche sull'intelligenza artificiale.
ENGLISH ABSTRACT
Concerns about artificial intelligence (AI) and its potential existential risks have garnered significant attention, with figures like Geoffrey Hinton and Dennis Hassabis advocating for robust safeguards against catastrophic outcomes. Prominent scholars, such as Nick Bostrom and Max Tegmark, have further advanced the discourse by exploring the long-term impacts of superintelligent AI. However, this existential risk narrative faces criticism, particularly in popular media, where scholars like Timnit Gebru, Melanie Mitchell, and Nick Clegg argue, among other things, that it distracts from pressing current issues. Despite extensive media coverage, skepticism toward the existential risk discourse has received limited rigorous treatment in academic literature. Addressing this imbalance, this paper reconstructs and evaluates three common arguments against the existential risk perspective: the Distraction Argument, the Argument from Human Frailty, and the Checkpoints for Intervention Argument. By systematically reconstructing and assessing these arguments, the paper aims to provide a foundation for more balanced academic discourse and further research on AI.