Go down

Una recensione del libro di Virginia Eubanks: Automating Inequality (2018)

Quando gli algoritmi puniscono i poveri: Virginia Eubanks documenta come i sistemi automatizzati di welfare trasformino la tecnologia in strumento di controllo sociale e impoverimento sistematico.


Introduzione

Virginia Eubanks, professoressa associata di Scienze Politiche presso l'Università di Albany, offre con Automating Inequality (2018) un'analisi critica e documentata di come i sistemi tecnologici automatizzati stiano trasformando l'amministrazione del welfare (in generale e in particolare negli Stati Uniti), producendo nuove forme di disuguaglianza e impoverimento. L'opera si colloca all'intersezione tra gli studi sulla povertà, la sociologia della tecnologia e la teoria critica, sfidando la narrazione (pre)dominante che presenta la digitalizzazione dei servizi pubblici sempre come neutrale, efficiente e progressista.

La tesi centrale di Eubanks è che i sistemi digitali ad alta tecnologia implementati per gestire programmi sociali non rappresentino strumenti neutri di modernizzazione amministrativa, ma costituiscano invece una nuova infrastruttura di controllo sociale che profila, sorveglia e punisce sistematicamente le persone povere. Lungi dal ridurre le disuguaglianze attraverso l'efficienza e l'oggettività promesse dall'automazione, questi sistemi le amplificano, cristallizzano e rendono meno visibili, creando quello che l'autrice definisce un "digital poorhouse" – un ospizio digitale per poveri che ricorda le istituzioni punitive del diciannovesimo secolo.

Metodologia e casi di studio

La forza dell'opera risiede nell'approccio etnografico e nella ricerca approfondita sul campo. Eubanks non si limita all'analisi teorica ma documenta meticolosamente tre casi studio che rappresentano diverse modalità attraverso cui la tecnologia viene utilizzata per gestire e controllare le popolazioni vulnerabili.

Il primo caso riguarda il sistema automatizzato di gestione del welfare nello stato dell' Indiana, dove nel 2006 lo stato affidò a una partnership pubblico-privata guidata da IBM la digitalizzazione completa dei servizi assistenziali. Il sistema sostituì gli operatori sociali con call center e interfacce digitali, introducendo rigidi requisiti procedurali e scadenze automatiche. Eubanks documenta come questo sistema abbia portato alla cancellazione di oltre un milione di richieste di assistenza in tre anni, lasciando migliaia di famiglie senza supporto vitale. Le persone anziane, quelle con disabilità, chi non aveva accesso a computer o competenze digitali, e chi affrontava crisi personali si trovarono incapaci di navigare un sistema progettato per l'efficienza piuttosto che per l'assistenza. Il risultato fu un impoverimento massivo e documentato: persone che persero l'assicurazione sanitaria durante trattamenti oncologici, famiglie che finirono senza cibo, anziani che rimasero senza farmaci essenziali.

Il secondo caso analizza il sistema Allegheny Family Screening Tool (AFST) a Pittsburgh negli USA, un algoritmo di valutazione del rischio utilizzato per prevedere quali bambini potrebbero subire abusi o negligenza. Presentato come strumento scientifico e oggettivo per proteggere i minori, il sistema assegnava punteggi di rischio alle famiglie sulla base di dati amministrativi. Eubanks mostra come l'algoritmo incorpori e amplifichi pregiudizi sistemici esistenti: poiché le famiglie povere hanno maggiori interazioni con i servizi pubblici (welfare, ospedali pubblici, scuole in zone svantaggiate), generano più dati che alimentano l'algoritmo, risultando sistematicamente classificate come "ad alto rischio". Il sistema crea così un circolo vizioso di sorveglianza che colpisce in modo sproporzionato comunità afroamericane e latine povere, trasformando la povertà stessa in un indicatore di rischio e producendo separazioni familiari traumatiche.

Il terzo caso esamina il Coordinated Entry System (CES) a Los Angeles, un algoritmo che determina l'accesso ai servizi per persone senza fissa dimora. Attraverso un questionario standardizzato, il sistema assegna punteggi di vulnerabilità che decidono chi riceve alloggio e chi rimane per strada. Eubanks documenta come questo sistema di triage trasformi un diritto fondamentale – l'abitazione – in una risorsa scarsa da allocare attraverso calcoli algoritmici. Le persone devono dimostrare di essere "sufficientemente vulnerabili" per meritare assistenza, creando incentivi perversi e costringendo individui già marginalizzati a esporre ripetutamente i propri traumi a operatori e sistemi informatici. Il risultato è una forma di impoverimento non solo materiale ma anche dignità umana e autonomia decisionale.

L'impoverimento algoritmico: meccanismi in azione e conseguenze

L'analisi di Eubanks rivela meccanismi specifici attraverso cui le piattaforme tecnologiche producono e intensificano l'impoverimento. Un primo meccanismo è la negazione dell'accesso attraverso la complessità procedurale. I sistemi digitali impongono requisiti burocratici rigidi, scadenze automatiche, documentazione estensiva e interfacce complesse che funzionano come barriere all'ingresso. Persone che potrebbero qualificarsi per l'assistenza vengono escluse non per mancanza di bisogno ma per incapacità di navigare labirinti amministrativi digitali. Questa "governance attraverso l'attrito" colpisce in modo sproporzionato anziani, persone con disabilità, chi ha bassa alfabetizzazione digitale, e chi affronta crisi che riducono la capacità di gestire complesse procedure burocratiche.

Un secondo meccanismo è la trasformazione della povertà in rischio. Gli algoritmi predittivi utilizzano dati sulla povertà, ad esempio l'uso di servizi pubblici, la residenza in quartieri svantaggiati, le interazioni con sistemi di assistenza, come proxy per comportamenti problematici. Questo trasforma caratteristiche socioeconomiche strutturali in attributi individuali patologici, criminalizzando di fatto la povertà stessa. Le famiglie povere vengono sottoposte a livelli di sorveglianza che sarebbero considerati intollerabili per le classi medie e alte, creando un doppio standard di cittadinanza dove la privacy è un privilegio riservato a chi può permettersela.

Un terzo meccanismo cruciale è l'opacità algoritmica combinata con l'aura di oggettività tecnica. I sistemi automatizzati prendono decisioni che influenzano profondamente le vite delle persone attraverso processi che sono tecnicamente complessi, di natura proprietaria, e sostanzialmente invisibili ai soggetti interessati. Quando le decisioni vengono attribuite ad algoritmi considerati "oggettivi" piuttosto che a giudizi umani, diventano più difficili da contestare. Le persone colpite non possono appellarsi, negoziare, o fornire contesto narrativo che un operatore umano potrebbe considerare. Il risultato è una forma di impoverimento di agency: le persone perdono la capacità di influenzare decisioni che riguardano le loro vite.

Un quarto meccanismo è la privatizzazione e finanziarizzazione dell'assistenza sociale. Come documenta il caso dell'Indiana, la gestione automatizzata del welfare viene spesso affidata a corporazioni private che operano secondo logiche di profitto. I contratti multimilionari incentivano la riduzione dei costi, che si traduce in negazione di servizi, piuttosto che il sostegno efficace alle persone vulnerabili. La tecnologia diventa così strumento di estrazione di valore pubblico per profitto privato, con le persone povere trasformate in opportunità di business attraverso contratti governativi.

Le conseguenze di questi meccanismi vanno oltre la dimensione materiale dell'impoverimento. Eubanks documenta impatti psicologici profondi: lo stress costante di essere sorvegliati, l'ansia di non comprendere sistemi che determinano la propria sopravvivenza, l'umiliazione di dover continuamente dimostrare la propria vulnerabilità, la disperazione di fronte a decisioni algoritmiche incomprensibili e inappellabili. Si produce quello che l'autrice chiama "trauma digitale", una forma di violenza strutturale mediata dalla tecnologia che danneggia la salute mentale e il benessere delle persone già marginalizzate.

Il valore e la rilevanza attuale del libro 

Automating Inequality presenta punti di forza significativi. La ricerca empirica è rigorosa e profondamente umana: Eubanks non si limita a analizzare sistemi umani e organizzativi ma dà voce alle persone che li abitano e li subiscono, documentando storie concrete di impoverimento, separazione familiare, e sofferenza evitabile. Questa dimensione narrativa, lungi dall'essere meramente aneddotica, è essenziale per comprendere le conseguenze reali di scelte tecnologiche presentate come neutre e tecniche.

La prospettiva storica è un altro elemento di forza. Eubanks collega esplicitamente i sistemi digitali contemporanei alle istituzioni punitive del passato, mostrando continuità nella logica di distinzione tra "poveri meritevoli" e "immeritevoli" e nella volontà di sorvegliare e disciplinare le persone vulnerabili. Questa genealogia storica smonta efficacemente il mito della tecnologia come rottura radicale con il passato, rivelando invece come nuovi strumenti possano servire vecchie logiche di controllo sociale.

L'opera contribuisce in modo significativo al dibattito crescente su etica algoritmica e giustizia digitale, anticipando temi che sono diventati centrali nel discorso pubblico. La nozione di "digital poorhouse" ha fornito un frame concettuale potente per comprendere come la digitalizzazione possa non ridurre ma amplificare le disuguaglianze esistenti.

L'analisi si concentra principalmente sul contesto statunitense e sui sistemi di welfare, lasciando meno esplorati altri domini dove la tecnologia produce impoverimento, come le piattaforme di gig economy, i sistemi di credito algoritmico, o la sorveglianza sul posto di lavoro. Una prospettiva comparativa internazionale avrebbe potuto arricchire l'analisi, mostrando come diversi regimi di welfare e tradizioni di stato sociale influenzino l'implementazione e gli effetti di sistemi automatizzati.

Sul piano delle soluzioni proposte, Eubanks è più convincente nella diagnosi che nella prescrizione. L'autrice invoca maggiore trasparenza, accountability, e partecipazione democratica nella progettazione di sistemi tecnologici, ma rimane meno chiaro come questi principi possano essere concretamente implementati contro interessi economici e logiche istituzionali consolidate. 

Alcune considerazioni finali

Automating Inequality rimane un contributo essenziale per comprendere come la tecnologia stia ridefinendo la povertà e l'assistenza sociale nel ventunesimo secolo. Eubanks dimostra in modo convincente che i sistemi high-tech utilizzati per gestire programmi sociali non sono strumenti neutrali ma infrastrutture di potere che producono attivamente impoverimento materiale, marginalizzazione sociale, e trauma psicologico per le persone più vulnerabili.

Per chiunque si occupi di politiche sociali, giustizia tecnologica, o disuguaglianze contemporanee, Automating Inequality offre un framework analitico indispensabile e una documentazione rigorosa di come la promessa di efficienza e oggettività tecnologica possa tradursi, nella pratica, in nuove forme sofisticate di esclusione e impoverimento. L'opera ricorda che le scelte tecnologiche sono sempre anche scelte politiche, e che la digitalizzazione dei servizi pubblici richiede vigilanza democratica, accountability rigorosa, e un impegno costante a proteggere la dignità e i diritti delle persone più vulnerabili.


Bibliografia essenziale:

  • Eubanks, Virginia (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin's Press.
  • O'Neil, Cathy (2016). Weapons of Math Destruction
  • Noble, Safiya Umoja (2018). Algorithms of Oppression
  • Zuboff, Shoshana (2019). The Age of Surveillance Capitalism

StultiferaBiblio

Pubblicato il 22 dicembre 2025

Carlo Mazzucchelli

Carlo Mazzucchelli / ⛵⛵ Leggo, scrivo, viaggio, dialogo e mi ritengo fortunato nel poterlo fare – Co-fondatore di STULTIFERANAVIS

http://www.stultiferanavis.it