Go down

Frankenstein ci ricorda che la tecnologia guidata dall’ambizione senza etica, può trasformarsi in qualcosa che ci sfugge, che ci ferisce, che ci divide. Ma ci offre anche una speranza: quella di ripensare il nostro ruolo di creatori, non come semplici innovatori, ma come custodi del futuro.

di Luca Sesini e Giuseppe (Beppe) Carrella.

Nel 1818, una giovane Mary Shelley scrive Frankenstein, dando vita a una storia che, ancora oggi, sorprende per l’attualità delle riflessioni. Il protagonista, Victor Frankenstein, accecato dal desiderio di superare i limiti della natura, crea una creatura che - abbandonata e incompresa - sfugge però al suo controllo e si trasforma da miracolo scientifico a minaccia.

Oggi, ci troviamo di fronte a una nuova forma di “creazione”: algoritmi che apprendono, intelligenze artificiali che decidono, sistemi automatizzati che modellano il nostro mondo. Come Victor, anche noi siamo affascinati dal potenziale della . Ma stiamo chiedendoci che impatto avrà? Chi ne sarà responsabile? E cosa succede se ci sfuggirà di mano?

Algoritmi e intelligenza artificiale: la nuova creatura

L’intelligenza artificiale è una leva competitiva cruciale, ma comporta anche rischi sistemici se non governata con lungimiranza. Come Frankenstein assemblava parti di corpi per dare vita a un essere nuovo, oggi gli sviluppatori costruiscono algoritmi combinando dati, modelli e codici.

  • La creatura digitale può apprendere, decidere, influenzare comportamenti.
  • Come Frankenstein, spesso queste innovazioni vengono lanciate nel mondo senza piena consapevolezza delle conseguenze, che possono avere risvolti negativi: Bias algoritmici che possono generare discriminazioni e danni reputazionali, Opacità decisionale che mina la fiducia di clienti, cittadini e stakeholder, Automazione non inclusiva che può alimentare il divario sociale e le tensioni occupazionali

Ma c'è un parallelo ancora più profondo: come il Mostro di Frankenstein, le nostre creature digitali nascono senza nome - parliamo di 'algoritmo X', 'sistema Y', 'IA generica'. Non hanno identità propria perché, come Victor, preferiamo non riconoscerle come nostre creazioni. E proprio questa mancanza di riconoscimento le trasforma in minaccia.

Come la creatura di Shelley, l’IA e l’innovazione tecnologica non sono “malvage” di per sé, ma possono diventarlo se abbandonate, ignorate o mal progettate.

IT non sostenibile: il lato oscuro della tecnologia

La sostenibilità digitale non riguarda solo l’etica, ma anche l’impatto ambientale e sociale dell’industria IT. E qui il parallelo con Frankenstein si fa ancora più evidente: Victor crea senza pensare alle conseguenze. Oggi, molte tecnologie digitali vengono sviluppate e distribuite senza una valutazione completa del loro impatto. Spesso pensiamo al digitale come qualcosa di leggero, pulito, immateriale. Ma la realtà è molto diversa. Dietro ogni email inviata, ogni video guardato in streaming, ogni transazione online, c’è un’infrastruttura fisica che consuma risorse in modo impressionante. La tecnologia promette di connetterci, semplificarci la vita, renderci più liberi. Ma se non viene progettata e governata con attenzione, può generare nuove forme di esclusione, controllo e disagio.

Impatti ambientali:

  • Data center: immensi edifici pieni di server che lavorano giorno e notte per far funzionare il nostro mondo digitale. Vere e proprie entità “energivore”, spesso alimentate da fonti non rinnovabili. Ogni volta che cerchiamo qualcosa su internet, mandiamo una mail, ascoltiamo una canzone in streaming… ci sembra tutto semplice, veloce, leggero. Ma dietro a quel gesto quotidiano c’è un costo che raramente consideriamo: energia, server accesi giorno e notte, emissioni che si sommano silenziosamente.
  • Blockchain e criptovalute: Il mondo delle criptovalute affascina, promette libertà e guadagni. Ma il mining - quel processo che tiene in piedi Bitcoin e simili - consuma una quantità di energia impressionante. Intere centrali lavorano solo per far girare quei calcoli. Il risultato? Un’impronta ecologica paragonabile a quella di interi paesi.
  • Obsolescenza programmata: Quante volte abbiamo cambiato telefono, computer, tablet… non perché fosse rotto, ma perché “non era più al passo”? Il mercato ci spinge a inseguire il nuovo, il più veloce, il più brillante. E così, milioni di dispositivi finiscono dimenticati in un cassetto. O peggio, in discarica, generando tonnellate di rifiuti elettronici, spesso difficili da smaltire, spesso tossici.

Impatti sociali:

  • Digital divide: questo crea nuove disuguaglianze: tra chi può partecipare pienamente alla vita digitale e chi resta ai margini. Bambini senza tablet, anziani esclusi dai servizi online, lavoratori tagliati fuori dalla formazione digitale. L’innovazione, se non è inclusiva, diventa una barriera.
  • Sorveglianza di massa: molti sistemi di riconoscimento facciale, tracciamento online, algoritmi predittivi raccolgono dati in modo invisibile e pervasivo. E così privacy, libertà di pensiero e di espressione, un tempo diritti fondamentali, rischiano di diventare un lusso.
  • Dipendenza digitale: app e piattaforme sono spesso progettate per catturare la nostra attenzione, generare engagement, farci restare connessi il più a lungo possibile. Il rischio? Un sovraccarico mentale, una riduzione della capacità di concentrazione, un aumento dell’ansia. Il digitale, se non gestito con equilibrio, può minare il nostro benessere psicologico.

Il mostro che creiamo con l'indifferenza

Il Mostro di Frankenstein non nasce malvagio. Cerca disperatamente di apprendere, di essere amato, di contribuire. Ma ogni suo tentativo di integrarsi viene respinto dall'apparenza, dal pregiudizio, dalla paura del diverso. Oggi accade lo stesso: quanti 'mostri digitali' creiamo con la nostra indifferenza? Quante persone escluse dal digitale diventano vittime del sistema che dovrebbe includerle? L'anziano che non riesce a prenotare online, il lavoratore sostituito dall'automazione, lo studente senza connessione - tutti spinti ai margini perché 'diversi' dal modello digitale dominante."

Etica della creazione: imparare da Victor Frankenstein

Victor abbandona la sua creatura appena nata, condannandola a una vita di solitudine e incomprensione. Oggi rischiamo lo stesso: lanciamo algoritmi nel mondo senza curarci di come vengono percepiti, usati, fraintesi. Come la creatura senza nome, anche i nostri sistemi digitali possono trasformarsi da strumenti di progresso a fonti di esclusione, proprio perché nessuno si ferma a 'riconoscere il valore di quello che portano dentro'.

Nel digitale, serve una nuova etica della responsabilità:

  • Trasparenza nei processi algoritmici
  • Accountability per chi progetta e implementa sistemi
  • Educazione digitale per cittadini consapevoli

La sostenibilità digitale è anche prevenzione: evitare di creare sistemi che, come la creatura di Shelley, si ribellano perché ignorati, fraintesi, emarginati.

Verso un’AI sostenibile: principi e pratiche

Victor Frankenstein non ha sbagliato nel creare. Ha sbagliato nel voltarsi dall’altra parte. La sua creatura non è nata malvagia: è diventata tale perché nessuno le ha dato ascolto, guida, dignità. È una lezione potente, che oggi ci riguarda più che mai.

Stiamo dando forma a sistemi intelligenti che apprendono, prendono decisioni, influenzano vite. Stiamo costruendo tecnologie che, in molti casi, ci conoscono meglio di quanto conosciamo noi stessi. E in questo processo, abbiamo davanti a noi una scelta cruciale: limitarci a innovare, oppure assumerci la responsabilità di ciò che mettiamo nel mondo.

Non basta creare, bisogna prendersi cura di ciò che si crea. Creare è solo l’inizio. Il vero gesto umano - quello che fa la differenza - è prendersi cura di ciò che si è messo al mondo.

Oggi, stiamo dando forma a sistemi intelligenti che imparano da noi, prendono decisioni, influenzano le nostre vite. E in questo momento storico, abbiamo davanti una possibilità concreta: non ripetere gli errori del passato. Possiamo scegliere di fare meglio. Di creare con consapevolezza, con rispetto, con responsabilità.

In un’epoca segnata dal dominio del digitale, l’intelligenza artificiale deve saper promuovere il suo impiego al servizio dell’uomo presentandosi come:

  • Etica: non possiamo delegare decisioni cruciali a sistemi che non comprendono il contesto umano. Serve un’AI progettata con attenzione ai diritti fondamentali, alla giustizia sociale, alla trasparenza. Un’AI che non discrimini, non manipoli, non escluda.
  • Inclusiva: il mondo è fatto di lingue, culture, esperienze diverse. Un’AI sostenibile deve saperle riconoscere, rispettare e valorizzare. Non possiamo costruire modelli universali su dati parziali: l’inclusione non è un dettaglio, è una condizione di validità (chiedere come cucinare ribs di maiale non dovrebbe dare gli stessi risultati se richiesto in America o in qualche stato islamico).
  • Green: ogni algoritmo ha un costo energetico. Ogni training di un modello genera emissioni. Un’AI sostenibile è anche un’AI che consuma meno, che ottimizza le risorse, che si integra in un ecosistema digitale più rispettoso del pianeta.

Alcuni esempi virtuosi:

  • AI a basso consumo: modelli ottimizzati per ridurre il carico computazionale.
  • Cloud sostenibile: data center alimentati da energie rinnovabili.
  • Design etico: interfacce che promuovono il benessere dell’utente, non la dipendenza.

Il masso di Sisifo digitale

Quanti di noi, nell'era digitale, spingono il proprio 'masso di Sisifo'? Lavoratori che ripetono task automatizzabili, sviluppatori che creano codice senza senso, utenti che scrollano feed infiniti. Come Sisifo, punito per aver tradito un patto, anche noi sembriamo condannati a fatiche digitali infinite. Ma a differenza del mito greco, il nostro 'patto tradito' non è con gli dei: è con noi stessi. Abbiamo accettato che la tecnologia ci usi, invece di usarla.

Conclusione: umanesimo tecnologico

Frankenstein ci ricorda che la tecnologia guidata dall’ambizione senza etica, può trasformarsi in qualcosa che ci sfugge, che ci ferisce, che ci divide. Ma ci offre anche una speranza: quella di ripensare il nostro ruolo di creatori, non come semplici innovatori, ma come custodi del futuro.

Oggi, abbiamo tra le mani strumenti potentissimi (algoritmi, IA, reti globali, …) capaci di cambiare il mondo. Ma il vero progresso non sta nel chiedersi se possiamo farlo. Sta nel chiederci se è giusto farlo, per chi lo facciamo, e con quali conseguenze.

La domanda non è “possiamo creare?” ma “che tipo di mondo vogliamo costruire con ciò che creiamo?” E soprattutto: “come possiamo farlo con rispetto, con responsabilità, con cura?

Perché il digitale non è solo codice. È cultura, è impatto, è vita. E il futuro, in fondo, è nelle mani di chi lo progetta.

Pubblicato il 06 gennaio 2026

Luca Sesini

Luca Sesini / Governance & Sustainability | Business & Digital Transformation | Innovation enthusiast | Change Management | NEDcommunity member

Giuseppe (Beppe) Carrella

Giuseppe (Beppe) Carrella / Rigattiere digitale