Mentre le grandi aziende tecnologiche competono per sviluppare sistemi di IA sempre più potenti, promettendo rivoluzioni in ogni settore della vita umana, un fronte eterogeneo di resistenza si sta organizzando. Non sono tenofobi ignoranti, neoluddisti nostalgici o conservatori resistenti al progresso tecnologico. Tra loro ci sono scienziati dell'IA, programmatori, artisti, sindacalisti, attivisti ambientali. E hanno una domanda semplice ma urgente: chi ha deciso che questo futuro è quello che vogliamo?
A porre questa domanda non sono più isolati cittadini o scienziati, ma movimenti eterogenei, locali e globali, variamente organizzati, tutti sensibilmente motivati da problematiche quali la democrazia, l’esercizio del potere, l’ambiente. Tanti individui che si sentono sempre più inquieti di fronte alla nuova civiltà delle macchine e per come viene conformisticamente e superficialmente raccontata, descritta come inevitabile e destinata a migliorare la nostra vita di esseri umani sulla terra. Un pianeta Terra sul quale si lavorerà sempre perché il mondo sarò operato e governato da machine intelligenti autonome. Almeno queste sono le promesse per un futuro migliore.
Buona parte della critica nasce dalla rinuncia, che la narrazione conformistica predominante evidenzia, a una visione d’insieme e a una lettura critica. Il progresso e la sua direzione sono dati per scontati dentro quella che viene rappresentata come una linea evolutiva già tracciata e non più rallentabile o possibile da fermare.
La critica più profonda e radicale interessa chi controlla lo sviluppo dell’IA e chi decide come verrà sviluppata, applicata e usata. Una manciata di aziende tecnologiche (OpenAI, Google, Meta, Anthropic, Microsoft) hanno concentrato nelle loro mani un potere senza precedenti. Stanno costruendo tecnologie che potrebbero trasformare ogni aspetto della società, ma le decisioni vengono prese in stanze chiuse, senza trasparenza, senza meccanismi democratici di governance e responsabilità. Queste aziende decidono unilateralmente cosa è sicuro, cosa è etico, cosa può essere commercializzato. Ma le conseguenze le subiamo tutti
Ne sono testimonianza il diffondersi della disinformazione che rende sempre più difficile distinguere il vero dal falso ("Stiamo perdendo la capacità di fidarci dei nostri occhi e delle nostre orecchie"), ma anche ciò che sta avvenendo sul terreno delle numerose guerre che stanno caratterizzando quest’epoca di grandi crisi geopolitiche e non solo. Il rischio delle armi autonome, senza supervisione umana sta diventando sempre più elevato e nessun trattato internazionale sembra ad oggi in grado di proibire o impedire l’uso di sistemi d'arma che possono selezionare e attaccare bersagli senza supervisione umana.
Un’altra critica rivolta all’IA viene dagli attivisti ambientali che invitano a spostare l’attenzione da cosa può fare a cosa e quanto consuma. La critica nasce dal mettere in discussione un tecnocapitalismo coloniale dai costi ambientali crescenti, riversati sulle parti più povere del pianeta, giustificati nella narrazione corrente celebrativa dei successi dell’IA come un progresso per l’umanità intera.
I data center necessari per addestrare e far funzionare i grandi modelli di IA hanno un impatto ambientale enorme. Consumano quantità crescenti di energia elettrica. Alcune stime parlano di un aumento del 160% entro il 2030. Ma il problema non è solo l'energia: è anche l'acqua. Per raffreddare i server, i data center utilizzano milioni di litri di acqua dolce. In regioni già sotto stress idrico, questo sta creando conflitti. In Uruguay, Google ha dovuto affrontare proteste per un data center che avrebbe consumato milioni di litri d'acqua al giorno mentre il paese affrontava la peggiore siccità da decenni. E poi c'è l'hardware. I chip specializzati per l'IA richiedono materiali rari: cobalto, litio, tungsteno, terre rare. La loro estrazione avviene prevalentemente in paesi del Sud Globale, spesso in condizioni di sfruttamento ambientale e umano devastanti.
Noi esseri umani, abbiamo la responsabilità di non contentarci delle narrazioni che ci vengono propinate. Qualcuno ha interesse a dirci che chiederci 'How many jobs will be killed by AI?' è la domanda sbagliata.
I tre volti della resistenza
Il panorama dell'attivismo anti-IA è complesso e attraversato da tensioni interne. Volendo semplificare tre sono i movimenti principali che rappresentano le diverse strategie e visioni del mondo di chi alla narrazione dell’IA attuale prova a sostituirne di alternative, certamente non celebrative e sempre critiche, costruite per far pensare e riflettere, in particolare sugli effetti e sulle conseguenze di uno sviluppo fuori controllo. In realtà sotto il potere e il controllo di pochi.
A spingere le persone attive nei tre movimenti , più avanti in questo testo sommariamente descritti, sono motivazioni che formano un arcipelago complesso di preoccupazioni che spesso si sovrappongono ma partono da premesse differenti.
Al cuore dei movimenti come PauseAI e ControlAI c'è una preoccupazione che può sembrare fantascientifica ma è presa sul serio da molti esperti: il rischio che una superintelligenza artificiale possa sfuggire al controllo umano con conseguenze catastrofiche. Le motivazioni individuali sono le più varie ma tutte sono collegabili a una preoccupazione di fondo sull’accelerazione che l’evoluzione delle IA sta manifestando, anche per la sua rapida diffusione e utilizzo da parte di moltitudini di persone, inconsapevoli dei rischi, degli effetti e delle conseguenze di una IA fuori controllo o fin troppo controllata da pochi.
Geoffrey Hinton, considerato uno dei padri fondatori del deep learning, ha lasciato Google nel 2023 proprio per poter parlare liberamente di questi rischi. "Pensavo che ci sarebbero voluti 30-50 anni prima di avere intelligenze generali", ha dichiarato al New York Times. "Ovviamente non lo penso più". Un sondaggio condotto nel 2023 tra ricercatori di machine learning ha rivelato che il 14% assegna almeno il 10% di probabilità a esiti "estremamente negativi" dallo sviluppo dell'IA, inclusa l'estinzione umana. Percentuali che possono sembrare basse, ma che applicate a un rischio esistenziale diventano inaccettabili.
Il Dipartimento della Homeland Security degli Stati Uniti ha pubblicato nel 2024 un rapporto paragonando lo sviluppo dell'IA alla corsa agli armamenti nucleari durante la Guerra Fredda. Un parallelo che i movimenti di resistenza usano costantemente per chiedere che, così come sono stati creati trattati internazionali per controllare le armi nucleari, si faccia la stessa cosa con l'IA.
Non tutti nella comunità scientifica concordano. Yann LeCun, chief AI scientist di Meta, ha definito questi timori pretestuosamente ridicoli, sostenendo che sono tecnicamente infondati e distraggono da problemi più concreti e immediati dell'IA. Ma il dibattito tra i "padrini" del deep learning, Hinton e Bengio da una parte, LeCun dall'altra, mostra quanto profonde siano le divisioni anche tra gli esperti più qualificati.
A persone come LeCun, molti attivisti rispondono che il problema non è tanto riflettere sul rischio esistenziale, percepibile come un tema astratto o lontano nel tempo, quanto di dare risposte alle preoccupazioni immediate e concrete dell’oggi. Ad esempio, a come l'IA stia già distruggendo posti di lavoro e svalutando il lavoro creativo umano. Il rischio non è da tutti condiviso ma lo sciopero degli sceneggiatori e attori di Hollywood nel 2023 ha portato il problema della sparizione di posti di lavoro legati alla creatività, al talento e all’esperienza umana, al centro dell’attenzione pubblica.
Gli artisti visivi hanno vissuto uno shock simile. Quando sistemi come Midjourney e Stable Diffusion hanno iniziato a generare immagini di qualità professionale, addestrati su miliardi di opere protette da copyright scaricate senza permesso, la reazione è stata di rabbia. Gruppi come Spawning AI hanno creato strumenti per permettere agli artisti di "avvelenare" i loro dataset – rendere le loro opere inutilizzabili per l'addestramento tramite modifiche impercettibili all'occhio umano.
Per non parlare di un livello ancora più invisibile di sfruttamento. I cosiddetti "ghost workers", lavoratori del Sud Globale che etichettano dati, puliscono dataset, moderano contenuti per addestrare i sistemi di IA. In Kenya, Madagascar, Filippine, vengono pagati appena 1-2 dollari l'ora per lavori psicologicamente devastanti, come guardare immagini violente o traumatiche per insegnare agli algoritmi cosa filtrare.
"I lavoratori gig sono i canarini nella miniera", "Quello che succede a loro oggi succederà a molti altri domani" (Mary Gray, ricercatrice di Microsoft)
PauseAI: i moderati organizzati
È da considerarsi moderato, sicuramente non un rivoluzionario, Joep Meindertsm, un imprenditore olandese di successo che nel 2023 ha lasciato il suo lavoro per fondare PauseAI, il movimento che chiede una moratoria temporanea sullo sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4. Una richiesta motivata dalla preoccupazione su una corsa irresponsabile verso sistemi che nessuno comprende davvero che porta a chiedere di premere il pulsante di pausa finché non avremo le giuste garanzie di sicurezza.
PauseAI si ispira alla lettera aperta pubblicata nel marzo 2023 dal Future of Life Institute, firmata da giganti del settore come Geoffrey Hinton e Yoshua Bengio (ma anche Andrew Yao, Dawn Song, Pieter Abbeel, Trevor Darrell, Yuval Noah Harari, Ya-Qin Zhang, Lan Xue, Shai Shalev-Shwartz, Gillian Hadfield, Jeff Clune, Tegan Maharaj, Frank Hutter, Atılım Güneş Baydin, Sheila McIlraith, Qiqi Gao, Ashwin Acharya, David Krueger, Anca Dragan, Philip Torr, Stuart Russell, Daniel Kahneman, Jan Brauner, Sören Mindermann). Il documento chiedeva una pausa di almeno sei mesi nello sviluppo di sistemi più potenti di GPT-4, per dare tempo alla regolamentazione di mettersi al passo con la tecnologia.
L'approccio di PauseAI è sistematico e istituzionale. Il movimento conta alcune migliaia di attivisti attivi e decine di migliaia di sostenitori online. Organizza webinar, produce materiali divulgativi, è attivo come lobby presso i parlamentari. È l'ala rispettabile della resistenza all'IA. A maggio 2024 il movimento ha coordinato proteste simultanee in 13 paesi, davanti alle sedi di OpenAI, Google DeepMind, Anthropic. Non blocchi stradali o occupazioni, ma manifestazioni pacifiche con cartelli e volantini informativi. La proposta èdel movimento è concreta: creare un'agenzia internazionale per l'IA sul modello dell'IAEA (Agenzia Internazionale per l'Energia Atomica), con poteri di ispezione e sanzione.
Stop AI: i radicali
Se PauseAI vuole rallentare, Stop AI vuole fermare completamente ("Una pausa non basta, Non puoi mettere in pausa un rischio esistenziale. O lo fermi o ti ferma lui ", ) lo sviluppo attuale dell’IA. Fondato nel 2024 da Sam Kirchner e Guido Reichstadter, il movimento chiede un stop permanente sullo sviluppo di AGI (Artificial General Intelligence), dei sistemi con capacità cognitive paragonabili o superiori a quelle umane.
Stop AI attira una base più eterogenea e conflittuale. Ci sono ex-programmatori che hanno lasciato l'industria tech per ragioni etiche ("Siamo stanchi di essere educati mentre il mondo brucia"), artisti infuriati per il furto del loro lavoro creativo ("Le aziende tech non si fermeranno mai volontariamente. La storia insegna che i potenti cedono solo quando sono costretti"), attivisti climatici che vedono l'IA come l'ennesima minaccia ambientale. Le loro tattiche sono più aggressive: sit-in, blocchi di sedi aziendali, azioni di disobbedienza civile.
A novembre 2025, alcuni episodi hanno messo il movimento sotto i riflettori per ragioni controverse. Attacchi informatici contro server di addestramento dell'IA, sabotaggi di data center. Stop AI ha preso le distanze, ma il danno reputazionale è stato fatto.
Il gruppo critica duramente anche la comunità tradizionale dell'AI safety, i ricercatori che lavorano per rendere l'IA più sicura dall'interno dell'industria. Li accusano di essere complici involontari, di fornire una patina di legittimità etica a una corsa fondamentalmente irresponsabile.
ControlAI: gli insider
Si possono considerare critici dell’IA insider come Connor Leahy, un nome noto nella comunità dell'IA. Ex ricercatore di OpenAI, ha fondato Conjecture, una startup dedicata proprio alla sicurezza dell'intelligenza artificiale. Nel 2023 ha lanciato anche ControlAI, un movimento che si distingue per l'approccio sofisticato e la strategia "inside game".
ControlAI non organizza proteste di piazza ("Non siamo contro il progresso tecnologico"). La loro arena è Westminster, Capitol Hill, Bruxelles. Fanno lobby, pubblicano position paper, organizzano eventi mediatici ad alto impatto. Nel novembre 2023, in occasione del primo AI Safety Summit a Bletchley Park nel Regno Unito, hanno fatto volare un dirigibile gigante con la scritta "Ban Superintelligence" sopra il luogo nel quale si teneva il vertice. Impossibile da ignorare.
Il documento chiave di ControlAI si intitola "A Narrow Path" e delinea principi dettagliati per la regolamentazione dell'IA ("Siamo per un progresso responsabile. Nessuno dovrebbe avere il diritto di costruire qualcosa che potrebbe mettere a rischio l'intera civiltà umana senza controlli democratici"): licensing obbligatorio per sistemi oltre una certa potenza computazionale, audit indipendenti, red teaming da parte di esperti di sicurezza, responsabilità legale per gli sviluppatori.
Il vantaggio di ControlAI è la credibilità tecnica. Leahy e i suoi collaboratori parlano la lingua dell'industria, comprendono le sfide tecniche, sanno esattamente dove si annidano i rischi. Questo li rende interlocutori credibili per i policy maker, ma anche sospetti per gli attivisti più radicali che li vedono come troppo compromessi con il sistema.
Quali sono le richieste dei movimenti anti IA principali
Dietro le proteste e le azioni mediatiche, questi movimenti hanno articolato richieste precise. A rivelarlo sono i loro documenti programmatici, che contengono visioni del mondo diverse, ma accomunate da un'urgenza esistenziale.
Il documento che ha catalizzato l'intero movimento è la lettera aperta pubblicata dal Future of Life Institute nel marzo 2023, firmata da migliaia di persone tra cui Yoshua Bengio, Stuart Russell e molti altri ricercatori di punta. La richiesta centrale era rivolta a tutti i laboratori di IA chiedendo loro di mettere immediatamente in pausa per almeno 6 mesi l'addestramento di sistemi di IA più potenti di GPT-4".
La lettera poneva domande dirette e scomode:
- Dovremmo permettere alle macchine di inondare i nostri canali informativi con propaganda e falsità?
- Dovremmo automatizzare tutti i lavori, inclusi quelli gratificanti?
- Dovremmo sviluppare menti non-umane che potrebbero eventualmente superarci in numero, intelligenza e sostituirci?
- Dovremmo rischiare di perdere il controllo della nostra civiltà?
- Possono le decisioni essere delegate a leader tecnologici non eletti?
- I sistemi di IA potenti non dovrebbero essere sviluppati solo quando si è sicuri che i loro effetti saranno positivi e i loro rischi gestibili?
La lettera proponeva anche azioni concrete durante la pausa nello svilupppo:
- Sviluppare e implementare protocolli di sicurezza condivisi, rigorosamente verificati da esperti indipendenti
- Creare nuove autorità regolatorie dedicate all'IA
- Sistemi di tracciamento per i modelli più potenti e le grandi capacità computazionali
- Sistemi di “watermarking” per distinguere contenuti reali da sintetici
- Responsabilità legale per danni causati dall'IA
- Finanziamento pubblico robusto per la ricerca sulla sicurezza tecnica dell'IA
La proposta di PauseAI
PauseAI ha trasformato la lettera aperta in un programma politico articolato. Sul loro sito web, le richieste sono chiare: implementare una pausa temporanea sull'addestramento dei sistemi di IA generale più potenti.
Passi proposti comprendono:
- La creazione di un'agenzia internazionale per la sicurezza dell'IA, simile all'IAEA (Agenzia Internazionale per l'Energia Atomica). Questa agenzia dovrebbe avere poteri di ispezione, certificazione e sanzione.
- Il permesso di addestrare sistemi di IA generale solo se la loro sicurezza può essere garantita. I laboratori dovrebbero dimostrare che i loro sistemi non presentano rischi catastrofici prima di poterli addestrare.
- Il permesso di impiegare modelli IA solo dopo che non sono presenti capacità pericolose. I sistemi devono essere sottoposti a test rigorosi prima di essere rilasciati al pubblico.
Il movimento PauseIA ha sempre enfatizzato di non opporsi all'IA in generale, ma solo alla corsa irresponsabile verso sistemi sempre più potenti, facendo un passo indietro dalla pericolosa corsa verso modelli sempre più grandi, imprevedibili, a scatola nera con capacità emergenti".
Le richieste di Stop AI
Stop AI va oltre. Mentre PauseAI chiede una pausa temporanea, Stop AI chiede un stop permanente allo sviluppo di una Intelligenza Artificiale Generale (AGI) e Superintelligenza Artificiale (ASI)" con le seguenti richieste:
- Fermare lo sviluppo di IA che mette in pericolo vite umane
- Usare le risorse delle aziende tech per fermare la corsa globale all'IA attraverso negoziazioni internazionali
- I CEO delle aziende High Tech devono spiegare pubblicamente perché credono di avere il diritto di rischiare vite umane
"A Narrow Path" di ControlAI
Il documento più sofisticato e dettagliato è "A Narrow Path" (Un Sentiero Stretto), pubblicato da ControlAI nell'ottobre 2024. È un piano comprensivo di oltre 100 pagine che affronta la questione del rischio esistenziale dell'IA con la precisione di un documento di ingegneria dei sistemi.
Premessa: "Non sappiamo come controllare un'IA che potrebbe dimostrarsi ampiamente più potente di noi. Se i tentativi di costruire una superintelligenza avessero successo, questo potrebbe porater alla nostra estinzione come specie.
Il documento è diviso in tre fasi:
Fase 1: Preparazione Nazionale Ogni paese dovrebbe:
- Istituire un'autorità nazionale per la sicurezza dell'IA con potere di regolamentazione
- Implementare un sistema di licensing per sistemi di IA oltre una certa soglia computazionale
- Richiedere audit di sicurezza indipendenti prima del deployment
- Stabilire responsabilità legale chiara per danni causati dall'IA
- Creare trasparenza obbligatoria sui dataset di addestramento e sulle capacità dei modelli
Fase 2: Coordinamento Internazionale
- Creare un trattato internazionale vincolante sulla sicurezza dell'IA
- Istituire un'agenzia internazionale con poteri di ispezione simili all'IAEA
- Stabilire soglie computazionali globali oltre le quali l'addestramento richiede approvazione internazionale
- Meccanismi di enforcement per paesi che violano gli accordi
Fase 3: Governance a Lungo Termine
- Sviluppare standard tecnici globali per l'allineamento dell'IA
- Creare meccanismi democratici di governance che permettano alla società civile di avere voce in capitolo
- Finanziamento pubblico massiccio per ricerca sulla sicurezza dell'IA
- Preparazione per le distruzioni economiche e sociali causate dall'automazione
Il documento "A Narrow Path” è esplicito nel riconoscere che quanto propone nel suo manifesto non è una soluzione definitiva, ma un piano per i prossimi 20 anni.
Il Manifesto Filosofico di Stop AI Development
Un documento meno noto ma filosoficamente ricco è il manifesto pubblicato da un'ala del movimento Stop AI nel febbraio 2025, intitolato "STOP AI Development - A Philosophical Manifesto". Questo testo prende una direzione diversa, radicando l'opposizione all'IA in tradizioni filosofiche che vanno da Kant ad Arendt, da Marx a Thoreau.
La tesi centrale del testo è che "La rapida evoluzione dell'IA presenta sfide profonde alla dignità umana, alla coscienza, alla verità e all'autonomia".
Il manifesto identifica diverse dimensioni della crisi:
- Dignità umana: Gli algoritmi riducono le persone a semplici modelli predittivi, negando la complessità irriducibile di ogni vita umana
- Giustizia: I sistemi automatizzati perpetuano e amplificano pregiudizi storici, creando una "oppressione algoritmica"
- Verità: I contenuti sintetici inondano l'ecosistema informativo, erodendo la capacità di distinguere reale da falso
- Autonomia: La manipolazione predittiva del comportamento umano crea una forma di controllo sociale senza precedenti
- Ambiente: Il costo materiale dell'IA (estrazione mineraria, consumo energetico, data center, ccc.) viene nascosto dietro la narrazione retorica e manipolatoria dell'immaterialità
Punti comuni e divergenze
Nonostante le differenze di tono e tattica, i vari manifesti qui menzionato condividono alcuni temi:
- Urgenza esistenziale: Tutti concordano che siamo in un momento critico. Le decisioni prese ora determineranno il futuro dell'umanità.
- Critica alla governance privata: Le aziende tech non dovrebbero avere il potere unilaterale di decidere lo sviluppo di tecnologie così potenti.
- Necessità di controllo democratico: La società civile deve avere voce in capitolo.
- Trasparenza e accountability: I sistemi di IA devono essere comprensibili, verificabili, e chi li costruisce deve essere responsabile dei danni.
Ma le divergenze sono profonde:
- Temporalità e tempistiche: PauseAI chiede una pausa temporanea, Stop AI un divieto permanente, ControlAI una governance a lungo termine.
- Metodi: PauseAI privilegia proteste pacifiche e advocacy istituzionale, Stop AI accetta tattiche più radicali, ControlAI lavora dall'interno del sistema.
- Visione del futuro: PauseAI e ControlAI immaginano un futuro in cui l'IA controllata può essere benefica, Stop AI è più scettico.
- Alleanze: PauseAI cerca di costruire un movimento di massa, ControlAI lavora con élite politiche, Stop AI critica entrambi come troppo tiepidi.
Queste differenze riflettono tensioni più profonde su come affrontare rischi esistenziali: riforme graduali o rottura radicale? Lavoro dall'interno o pressione dall'esterno? Fiducia nella possibilità di controllo tecnico o rifiuto totale della direzione di sviluppo?
Tensioni, divisioni, contraddizioni dentro i movimenti
Ai tre movimenti sopra descritti andrebbero collegate altre innumerevoli iniziative che sono nate e stanno nascendo in giro per il mondo. L’elemento che emerge da tutti questi movimenti è la mancanza di una strategia comune, che poi indica anche la mancanza di unità. Ne consegue una limitata efficacia della proposta, la dove ne esista una, o della critica. Il tutto aggravato dalle tensioni interne tra movimenti che rivelano differenze filosofiche difficili da riconciliare, oltre a differenze nelle scelte delle pratiche di opposizione da usare.
PauseAI per non passare da estremisti ha pubblicamente preso le distanze da Stop AI ("La violenza non è mai la risposta, delegittima il nostro movimento”) dopo gli episodi di presunto sabotaggio. A questo i più radicali rispondono che la moderazione è complicità, inoltre la gentilezza non ha mai fermato un treno in corsa e OpenAI, Google, Meta, ecc. non si fermeranno mai perché glielo si chiede gentilmente.
Alcuni ricercatori poi temono che enfatizzare i rischi esistenziali giochi paradossalmente a favore delle aziende, alimentando la loro narrazione secondo cui stanno costruendo qualcosa di incredibilmente potente. C'è poi un dibattito tecnico complesso: rallentare lo sviluppo del software potrebbe creare problemi anche alle infrastrutture hardware che l’IA impiega. Se si fermano i progressi algoritmici ma l'hardware continua a migliorare, quando qualcuno avrà finalmente una soluzione algoritmica a una IA più potente, avrà immediatamente accesso a una potenza di calcolo enorme. È come comprimere una molla: più la blocchi, più violento sarà il rilascio.
Cosa succede in Europa tra regolamentazione e proteste dal basso
Se negli Stati Uniti il dibattito sull'IA è dominato dalla tensione tra industria e movimenti di protesta, in Europa il panorama è più complesso. Da una parte c'è l'Unione Europea che ha approvato l'AI Act, la prima regolamentazione comprensiva dell'intelligenza artificiale al mondo. Dall'altra, una galassia di proteste locali che rivelano quanto la resistenza all'IA sia estesa e radicata nel territorio.
Le proteste più visibili in Europa non si concentrano tanto sui rischi esistenziali dell'AGI, forse di là da venire, quanto sull'impatto concreto e immediato dei data center necessari per addestrare e far funzionare i sistemi di IA. In Irlanda, la situazione è diventata critica. I data center consumano ormai il 22% dell'elettricità nazionale. Il 97% di questi centri è concentrato nell'area di Dublino. Il movimento Not Here Not Anywhere (NHNA) ha condotto una campagna che ha portato a un risultato concreto: una moratoria sulle nuove connessioni alla rete per data center che durerà almeno fino al 2028. Ma il problema non è solo energetico. Le famiglie irlandesi hanno visto le bollette aumentare di circa 100 euro all'anno nel 2024 per finanziare il potenziamento della rete elettrica. E la capacità aggiuntiva creata? Non è andata a elettrificare case, trasporti pubblici o pompe di calore, ma è stata prenotata anni in anticipo dai grandi colossi tecnologici.
Nei Paesi Bassi, la resistenza è ancora più organizzata. Il gruppo Save the Wieringermeer ha bloccato i piani di Microsoft di costruire enormi server farm in una regione agricola. DataTruc Zeewolde, altra organizzazione locale, ha combattuto contro Meta (Facebook) che voleva costruire un mega data center vicino ad Amsterdam. La protesta di Extinction Rebellion davanti agli uffici comunali di Zeewolde nel dicembre 2021 ha fatto storia. Gli attivisti denunciavano non solo l'impatto ambientale, ma anche il fatto che per due anni le autorità pubbliche avessero deliberatamente nascosto il nome di Facebook dai documenti ufficiali per evitare opposizioni. Nel 2022, il governo olandese ha imposto una moratoria di nove mesi sui permessi per data center superiori a 10 ettari, citando la mancanza di spazio e la "quantità sproporzionata" di energia rinnovabile richiesta. Ma le proteste continuano. Ad agosto 2025, il gruppo Geef Tegengas (Push Back) ha occupato il tetto di un data center Microsoft vicino a Middenmeer, dopo che era emerso che la struttura ospitava server dell'intelligence militare israeliana usati per operazioni a Gaza.
In Germania, dove Francoforte è diventata la capitale europea dei data center, la rete elettrica è sotto stress. Nel 2024, la città ha attratto 5,2 miliardi di dollari in investimenti esteri diretti principalmente per data center. Ma gli esperti avvertono che la griglia energetica sta raggiungendo i suoi limiti.
Anche in Italia emergono tensioni. A Bornasco, piccolo comune in provincia di Pavia di 2.600 abitanti, Microsoft sta costruendo un data center. L'amministrazione locale ne ha approvato un secondo, in un territorio che copre appena 12 chilometri quadrati. I residenti protestano per la perdita di spazi verdi e l'impatto su una comunità già fragile.
L'Europa vive un paradosso. Da un lato ha approvato l'AI Act, una legislazione che dovrebbe mettere paletti etici e di sicurezza all'industria dell'IA. Dall'altro, i governi dei tre paesi più potenti (Francia, Germania e Italia) hanno fatto lobbying intenso per indebolire proprio quelle regolamentazioni. Nel novembre 2023, un documento congiunto firmato dai tre paesi ha proposto un approccio basato su "autoregolamentazione obbligatoria tramite codici di condotta" per i modelli di IA più avanzati. In pratica, le aziende si regolano da sole, senza sanzioni iniziali per chi non rispetta le regole. Il motivo? La competizione economica. Francia e Germania ospitano Mistral AI e Aleph Alpha, due delle startup europee di IA più promettenti. I governi temono che regolamentazioni troppo stringenti le penalizzino rispetto ai concorrenti americani e cinesi.
Ma c'è anche un secondo livello di tensione. La Francia ha fatto pressioni per inserire nell'AI Act ampie esenzioni per la "sicurezza nazionale". Tradotto: permettere alle forze di polizia e di confine di usare sistemi di sorveglianza IA anche in spazi pubblici, normalmente vietati. Il risultato? Manifestazioni climatiche o proteste politiche potrebbero essere monitorate con sistemi di IA se la polizia invoca preoccupazioni di sicurezza nazionale.
PauseAI, il movimento fondato in Olanda, ha organizzato la sua prima azione pubblica proprio a Bruxelles nel maggio 2023, davanti agli uffici di lobbying di Microsoft. A novembre dello stesso anno, hanno protestato fuori dal primo AI Safety Summit a Bletchley Park nel Regno Unito.
Le proteste coordinate del 13 maggio 2024 hanno coinvolto 13 paesi, tra cui Regno Unito, Germania, Italia, Brasile, Australia e Norvegia. A Londra, una ventina di manifestanti si sono radunati davanti al Dipartimento per Scienza, Innovazione e Tecnologia, scandendo slogan come "Stop the race, it's not safe" ("Fermate la corsa, non è sicuro").
In Germania, le proteste di PauseAI si sono concentrate su Berlino e Monaco, spesso davanti alle sedi di DeepMind e altre aziende di IA. A Roma, un piccolo gruppo si è riunito davanti a istituzioni governative. Ma i numeri restano modesti: decine di persone per protesta, non centinaia.
Il problema, secondo alcuni osservatori, è che in Europa la percezione del rischio esistenziale dell'IA è meno diffusa che negli Stati Uniti. Le preoccupazioni concrete, lavoro, privacy, sorveglianza, impatto ambientale, mobilitano di più delle paure sulla superintelligenza.
Un rapporto pubblicato nel 2025 da ricercatori di Sciences Po dal titolo "From Rejection to Regulation: Mapping the Landscape of AI Resistance" ha documentato sei aree principali di resistenza all'IA in Europa:
- Industrie creative: artisti e scrittori che protestano contro il furto di proprietà intellettuale
- Migrazione e controllo delle frontiere: organizzazioni per i diritti umani che contestano l'uso di IA discriminatoria
- IA in medicina: medici e pazienti preoccupati per diagnosi automatizzate
- Scuola e educazione: studenti e professori contro l'uso di IA, anche per l’uso fatto nelle valutazioni
- Difesa e sicurezza: dipendenti di aziende tecnologiche che rifiutano progetti militari
- Attivismo ambientale: proteste contro i data center e le infrastrutture tecnologiche necessarie alle IA per funzinare
Il rapporto sottolinea il ruolo cruciale delle organizzazioni della società civile nell'organizzare questa resistenza. E documenta verità inconfessabili o che trovano raramente spazio nei media maisntream. In Spagna, giornalisti investigativi hanno scoperto il reale consumo di acqua ed energia di Amazon Web Services solo dopo aver richiesto documenti di pianificazione e licenze tramite leggi sulla trasparenza. In Romania, promesse di centinaia di posti di lavoro per data center si sono rivelate illusorie. Il Ministero delle Finanze ha concesso 17 milioni di euro di aiuti di stato a ClusterPower per un progetto che doveva creare 21 posti di lavoro. Ne sono stati creati solo 10. Funzionari locali avevano parlato di 300 posizioni. E si potrebbe continuare.
Ciò che distingue la resistenza europea da quella americana è il suo carattere fortemente localista e pragmatico. Mentre negli Stati Uniti il dibattito si concentra spesso su scenari futuri e rischi esistenziali, in Europa le battaglie sono concrete: acqua, energia, terreni agricoli, posti di lavoro promessi e mai creati. È una resistenza che affonda le radici in tradizioni di attivismo ambientale e difesa del territorio. I contadini olandesi che protestano contro i data center usano lo stesso linguaggio di chi si oppone all'agricoltura intensiva. Gli attivisti irlandesi collegano esplicitamente la crisi dei data center alla giustizia climatica.
Ma c'è anche una frustrazione specifica: il senso che le élite politiche europee siano più interessate a compiacere i giganti tecnologici stranieri che a difendere gli interessi locali.
Questa percezione alimenta un sentimento anti-globalizzazione che attraversa le proteste. Non è solo ambientalismo. È la sensazione che decisioni che cambieranno il tessuto sociale delle comunità vengano prese senza alcuna consultazione democratica, in nome di un "progresso" di cui beneficiano soprattutto azionisti lontani.
Oltre ai movimenti principali e alle proteste europee contro i data center, la resistenza all'IA prende forme diverse e creative. I sindacati stanno cercando di organizzarsi. L'AFL-CIO, la più grande federazione sindacale americana, ha pubblicato nel 2023 un documento che chiede che l'IA sia regolata come qualsiasi altro strumento sul posto di lavoro: i lavoratori devono avere voce in capitolo su come e quando viene implementata.
Gli attivisti ambientali si stanno organizzando a livello locale contro la costruzione di nuovi data center. In Irlanda, Olanda, Danimarca ci sono state battaglie legali e campagne pubbliche contro progetti che avrebbero consumato troppa energia o acqua.
Il movimento per la giustizia algoritmica, guidato da organizzazioni come l'Algorithmic Justice League di Joy Buolamwini, combatte contro i pregiudizi razziali e di genere incorporati nei sistemi di IA. Hanno ottenuto vittorie concrete: diverse città americane hanno vietato l'uso del riconoscimento facciale da parte della polizia dopo che è emerso quanto fossero discriminatori questi sistemi.
E poi ci sono forme di resistenza più sottili. Artisti che rilasciano le loro opere con licenze che esplicitamente vietano l'uso per addestrare IA. Programmatori che rifiutano di lavorare su progetti militari o di sorveglianza. Ricercatori che lasciano le big tech per startup dedicate alla sicurezza o per organizzazioni non profit. Infine la pratica dell’”avvelenamento dei dati” ossia l'inserimento deliberato di dati corrotti nei set di apprendimento delle macchine, una forma di sabotaggio digitale che ricorda le tattiche dei luddisti che spezzavano i telai. Mentre i luddisti distruggevano macchine fisiche, gli avvelenatori corrompono le macchine dall'interno, rendendo i loro modelli meno affidabili.
Quanto sono efficaci gli attuali movimenti di resistenza all’IA in Europa?
La domanda cruciale è se questi movimenti stanno avendo un impatto reale?
I risultati sono contrastanti.
Ci sono effetti positivi:
- La Writers Guild ha ottenuto protezioni contrattuali contro l'uso predatorio dell'IA
- Il primo AI Safety Summit a Bletchley Park (2023) ha prodotto una dichiarazione firmata da 28 paesi che riconosce i rischi dell'IA, anche grazie alla pressione di movimenti come ControlAI
- L'Unione Europea ha approvato l'AI Act, la prima regolamentazione completa dell'IA al mondo
- Diverse aziende hanno rallentato o sospeso progetti particolarmente controversi sotto la pressione pubblica
- Il dibattito pubblico sui rischi dell'IA si è intensificato enormemente
Ma i limiti sono evidenti:
- I movimenti restano relativamente piccoli. PauseAI conta alcune migliaia di attivisti attivi, Stop AI ancora meno
- L'industria continua a correre a velocità sostenuta. OpenAI, Google, Anthropic rilasciano modelli sempre più potenti ogni pochi mesi
- Gli investimenti nell'IA sono ai massimi storici, centinaia di miliardi di dollari
- Le regolamentazioni approvate sono spesso vaghe o facilmente aggirabili
- C'è un paradosso stridente: sondaggi mostrano che la stragrande maggioranze delle persone vorrebbe evitare l'IA quando possibile, ma l'adozione di strumenti basati su IA cresce esponenzialmente
"Stiamo gridando mentre il Titanic accelera verso l'iceberg. Tutti vedono il problema, ma nessuno gira il timone".
Alcuni osservatori sono più ottimisti. "Il cambiamento culturale richiede tempo", nota un ricercatore dell'Oxford Internet Institute. C'è anche chi sostiene che l'efficacia di questi movimenti non si misura in leggi approvate o aziende fermate, ma in consapevolezza creata. Hanno reso impossibile per le aziende tech ignorare le questioni etiche e di sicurezza. Hanno dato voce a preoccupazioni che altrimenti sarebbero rimaste marginali.
Alcune considerazioni finali: oltre la tecnologia, una battaglia per il futuro
La resistenza all’IA, nella forma in cui viene sviluppata, modellata, raccontata e proposta oggi, che è nata in questi anni non riguarda mai solo algoritmi e data center. Impone riflessioni critiche e domande più profonde su che tipo di futuro vogliamo costruire e su quale potere o chi abbia (si sta arrogando) il diritto di decidere.
Troppo facile liquidare questi movimenti come neoluddisti, come resistenza irrazionale al progresso. In queste forme di resistenza ci sono certamente echi del movimento luddista della rivoluzione industriale e dei lavoratori tessili che spezzavano i telai meccanici nel 1811. Ma ci sono differenze cruciali. I luddisti si opponevano a macchine che facevano cose specifiche come essere più veloci nella produzione e rendere il processo produttivo più automatizzato e economico. Gli attivisti anti-IA si oppongono a qualcosa di potenzialmente molto più fondamentale. Si resiste a sistemi che potrebbero eguagliare o superare l'intelligenza umana in domini generali, non solo in compiti specifici.
Mentre i luddisti erano lavoratori che proteggevano i loro mezzi di sussistenza, il movimento contemporaneo include molti insider dell'industria tecnologica, persone che hanno contribuito a creare questi sistemi e ora suonano l'allarme proprio perché sanno cosa potrebbero accadere se qualcosa dovesse andare storto o se qualcuno piegasse le nuove tecnologie a logiche di puro potere, che non potrebbe essere democratico ma autoritario.
"Non siamo contro la tecnologia. Siamo contro la tecnologia senza democrazia. Contro l'innovazione senza responsabilità. Contro il progresso che non si ferma a chiedersi: progresso verso cosa? E per chi?" (Meindertsma)
La domanda che questi movimenti pongono è scomoda ma necessaria. Pone una domanda chiave: chi ha dato a Sam Altman, Demis Hassabis, Mark Zuckerberg il diritto di decidere come sarà il futuro dell'umanità? Saranno pure visionari brillanti, certamente, ma la brillantezza tecnica non conferisce autorità morale o politica.
Negli anni '40, dopo Hiroshima, molti scienziati che avevano lavorato al Progetto Manhattan furono tormentati dal rimorso. La comunità scientifica sviluppò una consapevolezza nuova sulla responsabilità etica della scienza. I movimenti anti-IA chiedono che questa consapevolezza arrivi prima, non dopo una catastrofe. Chiedono che la società nel suo insieme abbia voce in capitolo su tecnologie che potrebbero ridefinire cosa significa essere umani.
Riusciranno a fermare o rallentare lo sviluppo dell'IA? Probabilmente no, almeno non completamente. Le forze economiche, geopolitiche e tecnologiche che spingono verso una accelerazione sono troppo potenti. La competizione tra Stati Uniti e Cina rende quasi impossibile una pausa coordinata. Ma forse l’impegno a cercare di rallentare o fermare l’evoluzion (involuzione?) in corso non è l'unico metro di misura dell’eventuale e improbabile successo. Forse il contributo più importante è stato rendere impossibile ignorare le domande difficili. Il merito di questi modvimnti di resistenza hanno strappato il futuro dalle mani di pochi visionari tecnocratici e lo hanno riportato nell'arena del dibattito democratico.
In un'epoca in cui la tecnologia viene spesso presentata come destino inevitabile (vedi i libri di Kevin Kelly e non solo) questi movimenti ricordano una verità semplice ma sovversiva: il futuro non è scritto. È una scelta. E abbiamo ancora il diritto di scegliere.
La domanda è se avremo anche il coraggio di fare una scelta, di resistenza.
Bibliografia essenziale
Libri
- Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014. Il testo fondamentale sui rischi esistenziali dell'intelligenza artificiale. Bostrom analizza scenari di come una superintelligenza potrebbe emergere e sfuggire al controllo umano.
- Russell, Stuart. Human Compatible: Artificial Intelligence and the Problem of Control. Viking, 2019. Uno dei massimi esperti di IA argomenta che il problema fondamentale è come costruire sistemi i cui obiettivi siano allineati con i valori umani.
- Crawford, Kate. Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press, 2021. Un'analisi critica dell'impatto materiale dell'IA: estrazione mineraria, sfruttamento del lavoro, consumo energetico. Smonta il mito dell'IA come tecnologia "immateriale".
- O'Neil, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown, 2016. Spiega come gli algoritmi possano amplificare discriminazioni e ingiustizie esistenti, con esempi concreti da educazione, giustizia penale, finanza.
- Zuboff, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs, 2019. Analizza come l'IA e il machine learning siano al centro di un nuovo modello economico basato sulla predizione e manipolazione del comportamento umano.
- Noble, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press, 2018. Documenta come i sistemi algoritmici riproducano e amplifichino bias razziali e di genere.
- Eubanks, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin's Press, 2018. Mostra come l'automazione algoritmica colpisca in modo sproporzionato le persone più vulnerabili.
Articoli accademici e report chiave
- Hendrycks, Dan, et al. "An Overview of Catastrophic AI Risks." arXiv preprint arXiv:2306.12001 (2023). Una rassegna sistematica dei principali scenari di rischio catastrofico associati all'IA avanzata.
- Bengio, Yoshua, et al. "Managing extreme AI risks amid rapid progress." Science 384.6698 (2024): 842-845. Articolo firmato da diversi premi Turing che argomenta per una governance internazionale dell'IA.
- Future of Life Institute. "Pause Giant AI Experiments: An Open Letter." Marzo 2023. La lettera aperta che ha catalizzato il dibattito pubblico, firmata da migliaia di esperti e personalità.
- AI Now Institute. "2023 Landscape: Confronting Tech Power." Aprile 2023. Report annuale che analizza la concentrazione di potere nell'industria dell'IA e propone policy alternative.
- Gray, Mary L., and Siddharth Suri. Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass. Houghton Mifflin Harcourt, 2019. Ricerca etnografica sui lavoratori invisibili che rendono possibile l'IA.
Rapporti governativi e internazionali
- UK Department for Science, Innovation and Technology. "International Scientific Report on the Safety of Advanced AI." 2024. Primo rapporto scientifico internazionale coordinato sui rischi dell'IA avanzata.
- US Department of Homeland Security. "Artificial Intelligence: Risks and Opportunities." 2024. Analisi governativa che paragona lo sviluppo dell'IA alla corsa agli armamenti nucleari.
- United Nations. "Governing AI for Humanity: Final Report." Settembre 2024. Raccomandazioni del panel consultivo dell'ONU su governance globale dell'IA.
- European Parliament. "Artificial Intelligence Act." Approvato nel 2024. Il testo della prima regolamentazione completa dell'IA, con particolare attenzione ai sistemi ad alto rischio.
Saggi e interventi
- Hinton, Geoffrey. Intervista al New York Times. "The Godfather of A.I. Leaves Google and Warns of Danger Ahead." Maggio 2023. L'intervista in cui uno dei pionieri del deep learning esprime pubblicamente le sue preoccupazioni.
- LeCun, Yann. "A Path Towards Autonomous Machine Intelligence." OpenReview, giugno 2022. La visione alternativa di un altro "padrino" dell'IA, più ottimista sui rischi.
- Tegmark, Max. Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf, 2017. Esplora diversi scenari futuri in cui l'IA potrebbe evolvere, dal più utopico al più distopico.
Webgrafia
Siti dei movimenti
- PauseAI Sito ufficiale del movimento, con risorse educative, calendario proteste, documenti programmatici.
- Stop AI Piattaforma del movimento più radicale, include manifesto, tattiche di azione diretta.
- ControlAI Materiali di lobby, position paper, campagne mediatiche.
Organizzazioni di ricerca e advocacy
- AI Now Institute Istituto di ricerca interdisciplinare su implicazioni sociali dell'IA, con particolare focus su giustizia e accountability.
- Future of Life Institute Organizzazione non profit dedicata ai rischi esistenziali dell'IA, autori della lettera aperta del 2023.
- Algorithmic Justice League Fondata da Joy Buolamwini, combatte i bias algoritmici e promuove equità nei sistemi di IA.
- Center for AI Safety Organizzazione di ricerca dedicata alla riduzione dei rischi catastrofici dell'IA.
- Partnership on AI Consorzio multi-stakeholder che include aziende tech, società civile e ricercatori.
Campagne specifiche
- Stop Killer Robots Campagna globale contro i sistemi d'arma autonomi letali.
- Artists Against AI Strumenti per artisti per proteggere le loro opere dall'uso non autorizzato nell'addestramento dell'IA.
- Time for a Pause Petizione e risorse per supportare una moratoria sullo sviluppo dell'IA.
Risorse tecniche e documentazione
- Anthropic - Claude Documentation Documentazione tecnica e linee guida etiche di uno dei principali laboratori di IA.
- OpenAI - Safety & Alignment Ricerche pubblicate da OpenAI su sicurezza e allineamento dell'IA.
- DeepMind - Responsible AI Approccio di Google DeepMind alla sicurezza dell'IA.
Media e giornalismo investigativo
- AI Snake Oil (Blog) Blog critico di Arvind Narayanan e Sayash Kapoor che smonta hype e affermazioni infondate sull'IA.
- Import AI (Newsletter) Newsletter settimanale di Jack Clark (Anthropic) su sviluppi nell'IA con prospettiva critica.
- The Gradient Rivista online gestita da studenti e ricercatori, focus su implicazioni sociali dell'IA.
Documentari e video
- "Coded Bias" (2020) Documentario su Joy Buolamwini e la lotta contro i bias nel riconoscimento facciale. Disponibile su Netflix e altre piattaforme.
- "The Social Dilemma" (2020) Anche se non specificamente sull'IA, documenta i rischi degli algoritmi di social media. Netflix.
Database e archivi
- AI Incident Database Database collaborativo che documenta incidenti e danni causati da sistemi di IA.
- Papers with Code - AI Safety Repository di ricerche accademiche su sicurezza dell'IA con codice associato.
Forum e comunità
- LessWrong - AI Alignment Forum Community online dedicata a razionalità e rischi esistenziali dell'IA.
- Effective Altruism Forum - AI Safety Discussioni su come ridurre i rischi dell'IA da prospettiva di altruismo efficace.
- r/ControlProblem (Reddit) Subreddit dedicato al problema del controllo dell'IA.
Podcast rilevanti
- "The 80,000 Hours Podcast" Episodi su AI safety e rischi esistenziali.
- "AI Alignment Podcast" Interviste con ricercatori su allineamento e sicurezza dell'IA.
Think tank e policy
- Center for Security and Emerging Technology (CSET) Ricerca su implicazioni di sicurezza nazionale delle tecnologie emergenti inclusa l'IA.
- Ada Lovelace Institute Think tank britannico su etica e governance dell'IA e dei dati.
- AI Policy Exchange Piattaforma per condivisione di policy e best practice sull'IA tra governi.
Organizzazioni sindacali
- AFL-CIO Technology Institute Risorse sindacali su impatto dell'IA sul lavoro.
- UNI Global Union - Breaking the Algorithm Campagna sindacale internazionale per diritti dei lavoratori nell'era algoritmica.