Go down

di Luca Sesini e Beppe Carrella


Nel vasto universo dei supereroi, pochi gruppi incarnano il tema dell’inclusione quanto gli X-Men. Creati da Stan Lee e Jack Kirby negli anni ’60, i mutanti della Marvel sono da sempre metafora delle minoranze discriminate: per razza, genere, orientamento, abilità. Non sono solo eroi con poteri straordinari, ma outsider, costretti a vivere ai margini di una società che li teme e li respinge per la loro diversità genetica.

Gli X-Men non salvano il mondo con mantelli svolazzanti o muscoli scolpiti. Non combattono per gloria, ma per riconoscimento. Non difendono il pianeta da alieni, ma da pregiudizi. Sono mutanti, sì, ma prima di tutto sono esclusi. Esclusi per ciò che li rende unici.

Oggi, in un mondo sempre più governato da dati, modelli predittivi e intelligenze artificiali, gli X-Men possono diventare il simbolo di una nuova frontiera dell’ingiustizia: quella digitale. In chiave contemporanea, i mutanti rappresentano chi viene escluso dai sistemi informatici perché “non conforme”: minoranze invisibili nei dataset, utenti penalizzati da algoritmi opachi, comunità escluse dalla progettazione tecnologica. Sono gli outlier, i dati anomali, i profili che non rientrano nei parametri dominanti. Sono, in altre parole, i “mutanti digitali”.

L’SDG 10 e gli X-Men: quando la diversità digitale diventa superpotere

Nell’universo degli X-Men, la diversità genetica è motivo di paura. Nel nostro, la diversità digitale lo è altrettanto. Milioni di persone vengono ignorate dai sistemi informatici perché non rientrano nei modelli dominanti. Non hanno accesso alle tecnologie, non sono rappresentate nei dati, non partecipano alla scrittura degli algoritmi. Non sono “visibili” per chi progetta il futuro.

Ecco dove entra in gioco l’SDG 10 – Ridurre le disuguaglianze. Non come obiettivo astratto, ma come alleato narrativo. Perché, se i mutanti sono esclusi per la loro biologia, oggi intere comunità lo sono per la loro “incompatibilità digitale”. Non parlano la lingua dei codici, non abitano le piattaforme, non vengono mappate dai sistemi. Sono gli outlier, i profili che disturbano la media. E come gli X-Men, non chiedono di essere normalizzati. Chiedono di essere riconosciuti.

In questa rilettura, gli X-Men diventano archetipi di resistenza algoritmica. Portano con sé una visione alternativa: quella di un mondo dove la diversità non è un bug da correggere, ma un asset da proteggere. Dove l’inclusione non è una concessione, ma una strategia. La loro lotta non è solo epica. È profondamente attuale. Perché oggi, chi non è rappresentato nei dati rischia di non esistere. E chi non esiste nei dati, non riceve servizi, opportunità, diritti. Gli X-Men ci ricordano che ogni sistema può essere riprogrammato. Che ogni algoritmo può essere riscritto. Che ogni mutante digitale ha il diritto di essere visto, ascoltato, incluso.

Gli X-Men non sono un gruppo omogeneo. Ognuno ha un potere unico, spesso difficile da controllare, spesso fonte di paura. Ma è proprio questa diversità che li rende forti. In chiave digitale, questa è una lezione cruciale: i sistemi informatici tendono a normalizzare, a cercare pattern, a escludere ciò che non rientra nella media. Ma è negli outlier che si nasconde l’innovazione, la resilienza, la ricchezza umana.

La Scuola di Xavier, luogo di formazione e accoglienza per mutanti, può essere riletta come un hub di educazione digitale inclusiva. Un ambiente dove si impara non solo a “usare la tecnologia”, ma a comprenderla, criticarla, riprogrammarla. Dove si insegna che l’accesso non è solo una questione di banda larga, ma di linguaggio e rappresentazione. Dove la competenza digitale si intreccia con la consapevolezza sociale.

Cerebro: l’algoritmo che decide chi esiste

Nel mondo degli X-Men, Cerebro non è solo una macchina. È un occhio onnisciente, un radar mentale capace di scandagliare il pianeta alla ricerca di mutanti. Per Charles Xavier è uno strumento di protezione, ma nelle mani sbagliate può diventare un’arma di controllo. Può localizzare, classificare, escludere. Può decidere chi merita attenzione e chi può restare invisibile.

Oggi, nel nostro mondo iperconnesso, Cerebro ha cambiato forma. Non è più un casco argentato collegato a un super-computer, ma un algoritmo che vive nei motori di ricerca, nei software di selezione, nei sistemi di sorveglianza. È il codice che filtra i CV, che suggerisce contenuti, che determina chi riceve un prestito, chi viene fermato per strada, chi ottiene un’opportunità.

In chiave SDG 10, Cerebro diventa la metafora perfetta dell’intelligenza artificiale contemporanea: capace di raccogliere dati, di costruire profili, di stabilire priorità. Ma anche di perpetuare disuguaglianze, amplificare bias, consolidare esclusioni. È lo sguardo digitale che decide chi conta e chi no.

Eppure, come ogni tecnologia, anche Cerebro può essere riprogrammato. Può imparare a riconoscere la diversità non come deviazione statistica, ma come valore prezioso. Può essere allenato a cercare ciò che sfugge, a includere ciò che disturba, a valorizzare ciò che è stato ignorato.

La vera sfida non è costruire algoritmi più potenti. È costruire algoritmi più giusti.
Algoritmi che non solo vedano, ma comprendano. Che non solo selezionino, ma ascoltino. Che non solo decidano, ma si mettano in discussione. Perché in fondo, ogni Cerebro contiene una scelta: quella tra controllo e cura, tra sorveglianza e solidarietà. E sta a noi, mutanti digitali, decidere da che parte stare.

Quando Cerebro discrimina: tre casi reali

  • Riconoscimento facciale: quando l’algoritmo non ti vede
    In alcuni sistemi di riconoscimento facciale, un volto nero o asiatico può risultare “meno leggibile” fino a cento volte rispetto a uno caucasico. Non per malizia, ma per omissione: i dati su cui l’algoritmo è stato addestrato non raccontano tutte le facce del mondo. Il risultato? Chi è già ai margini, rischia di esserlo anche nei pixel. E quando a usare questi sistemi sono polizia o aziende, l’errore non è solo tecnico: è sociale.
  • Giustizia predittiva e bias razziale: il caso COMPAS
    Negli USA, il sistema COMPAS ha classificato erroneamente come “ad alto rischio” il 45% degli imputati neri, contro il 23% dei bianchi. In altre parole, due persone con una storia criminale simile ricevevano valutazioni opposte semplicemente per l’appartenenza a gruppi etnici differenti. Un algoritmo che, invece di garantire equità, amplifica le distorsioni del passato.
  • Selezione del personale e discriminazione di genere
    Alcuni software di recruiting (celebre il caso del sistema sperimentale sviluppato e poi abbandonato da Amazon) hanno mostrato preferenze per candidati maschi, perché addestrati su dati storici in cui le posizioni di leadership erano occupate da uomini. Il risultato? Penalizzazione sistemica delle candidature femminili.

Questi esempi dimostrano che la disuguaglianza digitale non è una distopia futura, ma una realtà presente.
Gli algoritmi non sono neutri: riflettono e amplificano i pregiudizi della società.

Mutanti digitali: una narrativa per l’attivismo

Immaginiamo allora una campagna editoriale, visiva e narrativa che racconti la lotta per l’equità digitale attraverso gli occhi dei mutanti. Ogni personaggio può incarnare una sfida contemporanea:

  • Storm, con il suo legame con gli elementi naturali, può diventare il simbolo della sovranità tecnologica africana e della necessità di infrastrutture resilienti e localmente gestite.
  • Nightcrawler, capace di teletrasportarsi e di muoversi nell’ombra, può rappresentare la navigazione anonima, il diritto alla privacy, la protezione dei dati personali.
  • Rogue, che assorbe i poteri altrui, può incarnare il rischio di assimilare bias inconsci nei modelli di machine learning, e la necessità di vigilanza etica nella progettazione algoritmica.

Questa narrazione può parlare ai giovani, agli educatori, ai policy maker. Può trasformare concetti astratti come “inclusione algoritmica” in storie vive, emozionanti, memorabili. Può diventare strumento di advocacy, di formazione, di mobilitazione.

Conclusione: l’SDG 10 come superpotere collettivo

Ridurre le disuguaglianze digitali non è solo una questione tecnica. È una questione di immaginario, di linguaggio, di potere. Gli X-Men ci insegnano che la diversità non va tollerata, va celebrata. Che l’inclusione non è un obiettivo, è una strategia. Che ogni mutante digitale ha diritto a un posto nella rete.

In un mondo dove gli algoritmi decidono chi vede cosa, chi ottiene un lavoro, chi riceve assistenza, l’SDG 10 diventa un superpotere collettivo. E come ogni superpotere, va allenato, condiviso, difeso.


Pubblicato il 08 gennaio 2026

Luca Sesini

Luca Sesini / Governance & Sustainability | Business & Digital Transformation | Innovation enthusiast | Change Management | NEDcommunity member