Sommario
La recente diffusione delle cosiddette intelligenze artificiali generative ha portato nuovamente alla ribalta temi relativi all’influenza della tecnologia sui sistemi sociali e politici.
Questo documento è organizzato in tre parti.
Nella prima si affronteranno alcune premesse epistemologiche dei concetti di IA e democrazia.
Nella seconda saranno affrontati alcuni dei rischi per le democrazie connessi all’utilizzo dei sistemi di IA.
Nella terza parte troveranno posto ipotesi di scenari futuri e le considerazioni finali.
Quelli che nella scienza empirica sono chiamati 'dati' (data),
essendo in realtà scelti arbitrariamente dalla natura delle ipotesi già formulata,
potrebbero più onestamente essere chiamati 'presi' (capta) - (Laing, 1985, p. 33)
Definizioni
E’ necessario iniziare con seppur stringate definizioni dei due elementi protagonisti di questo documento: Intelligenza Artificiale e Democrazia.
Per quanto concerne l’IA, senza entrare nei dettagli tecnici, ci limitiamo, per la nostra argomentazione, a descriverne sommariamente i principi di funzionamento. Questi sistemi si basano essenzialmente sull’uso di “statistica applicata”. Una grande mole di dati, aggregata a partire da diverse fonti informative, è elaborata da sofisticati algoritmi che individuano numerosità, frequenze, regolarità, correlazioni. Prima, durante e dopo questo passaggio vi è una continua attività umana atta a far aderire i risultati finali con i desiderata iniziali.
Per democrazia intendiamo quella forma di governo dove la sovranità è esercitata, direttamente o indirettamente, dal popolo.
Le idee
Sotto la superficie - Assiomi diversi
IA
L’IA è un prodotto di una specifica cultura tecnica che implicitamente assume che esista una verità oggettiva, rappresentabile in dati contenenti significato, cioè informazioni. Che queste informazioni possano essere trattate, tramite metodi quantitativi e statistici, eliminando gli errori del giudizio e della decisione umana, così da distillarne la Verità stessa. Proprio queste stesse assunzioni, spesso inconsce, hanno permesso in questo ambito di utilizzare in maniera disinvolta ma suggestiva e quasi superstiziosa, il termine “intelligenza”. (Sini, 2023). In questa prospettiva la macchina permette di affrancarsi dalla fallacia del giudizio personale sostituito dalle ferree leggi della matematica. Non a caso è sorta un’enorme letteratura, derivante dall’economia comportamentale, che indaga le presunte fallacie umane e che a gettito continuo battezza nuovi ‘difetti’ del ragionamento umano, etichettandoli come ‘bias’. In questa prospettiva, il procedimento algoritmico, grazie alla sua esattezza matematica, tratta senza errore quelle che chiama unità minime di informazione, bit, fino a considerarle il mattone fondamentale dell’universo che ne sarebbe quindi derivato, con la famosa espressione “It from bit”:
“[It from bit]. Esso simboleggia l'idea che ogni elemento del mondo fisico ha in fondo - un fondo molto profondo, nella maggior parte dei casi - una fonte e una spiegazione immateriale; che ciò che chiamiamo realtà nasce in ultima analisi dalla formulazione di domande sì-no domande e dalla registrazione di risposte provocate da apparecchiature; in breve, che tutte le cose fisiche sono tutte le cose fisiche hanno un'origine teorica dell'informazione e questo è un universo partecipativo.” - (Wheeler J.A., 1989, pp. 354-368.)
Democrazia
La democrazia invece è strutturalmente basata sulla costruzione sociale di percorsi ‘viabili’, espressi da una maggioranza ed orientati al benessere e alla prosperità della comunità. Verità provvisorie da sottoporre continuamente al vaglio tramite i diversi strumenti della consultazione popolare.
“Chi ritiene inaccessibili alla conoscenza umana la verità assoluta e i valori assoluti, non deve considerare come possibile soltanto la propria opinione, ma anche l’opinione altrui [...] Perciò la procedura dialettica adottata dalla Assemblea popolare o dal parlamento nella creazione delle norme, procedura che si svolge attraverso discorsi e repliche, è stata opportunamente riconosciuta come democratica.” - (Kelsen, 2010, 146)
Questa apertura alle possibili verità è la conditio sine qua non per l’esistenza del pluralismo, fondamento dell’idea democratica.
“Il pluralismo della verità ci apre gli occhi, in primo luogo, sulla contingenza: io non ho una visuale di 360 gradi; nessuno ce l'ha. In secondo luogo, e questa è la nozione più audace, la verità è pluralistica perché la realtà stessa è pluralistica, non essendo un'entità oggettivabile. Noi soggetti siamo altrettanto parte di essa. Non siamo solo spettatori del Reale, ma anche co-attori e perfino co-autori di esso. Questa è precisamente la nostra dignità umana.” - (Panikkar, 1990)
Così, mentre la democrazia resta sul piano del pluralismo complesso, del dialogo e del dibattito, anche lungo e turbolento, producendo risultati sempre provvisori, l’IA è impiegata per ridurre, semplificare, velocizzare, ottimizzare, efficientare il processo decisionale, guidato da un algoritmo apparentemente non influenzato dall’umano, considerato imperfetto per natura.
La distinzione tra le due prospettive può essere sintetizzata dalla contrapposizione dei due termini: democratico e algocratico (Pozza, 2020).
Democrazia e comunicazione
L’indagine sulle premesse dell’IA ne ha, seppur in breve, rivelato la natura. E’ necessario invece proseguire ancora nel percorso di conoscenza della democrazia.
A questo proposito non possiamo non constatare che alla base della democrazia vi è il processo comunicativo umano.
Ed è nell’esplorazione di questo processo che risulta di grande aiuto la prospettiva di Bateson:
“In un mondo siffatto, la differenza produce una differenza e la differenza è una cosa molto diversa da una forza o da un urto. Siamo usciti dal mondo delle scienze fisiche per entrare nel mondo in cui diventa determinante la differenza. Orbene, la differenza è molto interessante perché se vi chiedo di dirmi dov’è situata una differenza, vi accorgete che non ci riuscite, perché ovviamente non è in questo, non è in quello, non è nello spazio che li separa e non è nel tempo che li separa. Le differenze, naturalmente, possono essere distribuite nel tempo. Una differenza è un’idea elementare; ed è fatta della sostanza di cui sono fatte le menti.” - (Bateson, 1997, p. 261)
In questo scenario l’informazione non è un oggetto che sia possibile scambiare tra due interlocutori, bensì un processo complesso di comunicazione che non può prescindere dalla natura e dalla storia dei soggetti coinvolti. - “Democrazia è complessità” - (Dominici, 1995)
L’atto comunicativo e quindi l’azione democratica è, per tale motivo, fondata su processi complessi non codificabili o memorizzabili in variabili digitali, proprio perché per sua natura in continua evoluzione e dove il ruolo dell’osservatore mai è esterno ma è a sua volta parte integrante e attiva del processo informativo in atto.
E’ possibile a questo punto compiere un ulteriore passaggio andando ancora più a fondo e deducendo, da quanto appena descritto, che la comunicazione è prerogativa del regno degli esseri viventi, gli unici capaci di fare esperienza della notizia di una differenza che produce una differenza. In sintesi, gli unici capaci di esperienze.
“Un sistema può essere definito come un complesso di elementi interagenti. Interazione significa che gli elementi, p, sono connessi da relazioni, R, in modo tale che il comportamento di un elemento p in R è differente da quello che sarebbe il suo comportamento rispetto a un’altra relazione R'. Se i comportamenti in R e in R' non sono differenti, allora non esiste interazione, e gli elementi si comportano indipendentemente rispetto alle relazioni R ed R'.” - (Bertalanffy, 1997, p. 97)
A questo punto possiamo arrivare al concetto che più ci interessa e che promette di fare da legante a quanto esplorato finora. L’esperienza, evento di relazione capace di suscitare significati nel soggetto.
“questa vita significante, questa certa significazione della natura e della storia che io sono, non limita il mio accesso al mondo, ma viceversa è il mio mezzo per comunicare con esso.” - (Merleau-Ponty, 2003, pp. 580-581)
L’attenzione quindi si sposta inevitabilmente dalla conquista di una Verità oggettiva, alla ricerca di esperienze significative che possano essere rivelatrici della natura complessa e relazionale del mondo e degli altri.
In un mondo siffatto, la differenza produce una differenza e la differenza è una cosa molto diversa da una forza o da un urto. Siamo usciti dal mondo delle scienze fisiche per entrare nel mondo in cui diventa determinante la differenza. Orbene, la differenza è molto interessante perché se vi chiedo di dirmi dov’è situata una differenza, vi accorgete che non ci riuscite, perché ovviamente non è in questo, non è in quello, non è nello spazio che li separa e non è nel tempo che li separa. Le differenze, naturalmente, possono essere distribuite nel tempo. - (Bateson, 1997, p. 261)
A questo livello di ragionamento si nota ormai la distanza abissale tra questo e l’ideologia informazionista precedentemente descritta.
La relazione
Perde quindi di consistenza l’idea di un mondo di oggetti esterni su cui è possibile avere una visione talmente oggettiva da poterli tradurre infallibilmente in bit di informazione.
"È sintatticamente e semanticamente corretto affermare che le asserzioni soggettive sono fatte da soggetti. Allora, in modo corrispondente, potremmo dire che le asserzioni oggettive sono fatte da oggetti. Disgraziatamente queste dannate cose non fanno asserzioni." - (von Foerster H., 1976, p. 16)
Ma è importante sottolineare che il termine informazione, molto tempo prima di divenire un nome, rappresentava più giustamente un’azione, informare, quindi implicitamente un processo.
“La base che abbiamo per comprendere il mondo è la nostra informazione sul mondo, che è una correlazione, di cui ci serviamo, fra noi e il mondo.”
[…]
“Dobbiamo abbandonare qualcosa che ci sembrava molto, molto naturale:
l’idea di un mondo fatto di cose. Dobbiamo riconoscerla come un vecchio
pregiudizio, come un carretto che non ci serve più”
[…]
La migliore descrizione della realtà che abbiamo trovato è in termini di eventi che
tessono una rete di interazioni. Gli “enti” non sono che effimeri nodi di questa rete.
Le loro proprietà non sono determinate che nel momento di queste interazioni e lo
sono solo in relazione ad altro: ogni cosa è solo ciò che si rispecchia in altre.”
(Rovelli, 2020, p.175, 193, 195)
E il concetto di informazione oggettiva non può quindi mai essere estratto da quello di relazione.
“Perché gli oggetti e gli eventi non sono esperienze primitive. Oggetti ed Eventi sono rappresentazioni di relazioni”. - (von Foerster, 1987, pag. 160).
“L'informazione è quindi sempre attivamente relazionata e relazionante. È un concetto autosufficiente e chiuso solo nell'ideologia informazionista.” - (Morin, 2001, p. 396)
Inoltre, l’idea di informazione come oggetto trascina dietro di se molte conseguenze proprio perché ignora la trama che connette.
“…credo anche che forse la mostruosa patologia atomistica a livello individuale, a livello familiare, a livello nazionale e a livello internazionale la patologia del pensiero sbagliato in cui tutti noi viviamo passa alla fin fine essere corretta dalla grandiosa scoperta di quelle relazioni che sono contenute nella natura e che costituiscono la bellezza della natura.” - (Bateson, 1997, p. 462)
A questo punto, assodata la cardinalità della relazione, possiamo collegarla di nuovo al concetto di democrazia.
“La sfera degli affari umani, strettamente parlando, consiste nell’intreccio di relazioni umane che esiste ovunque gli uomini vivono insieme, Le rivelazioni del “chi” attraverso il discorso e l'instaurazione di un nuovo inizio mediante l’azione, ricadono sempre in un intreccio già esistente dove possono essere percepite le loro immediate conseguenze. Insieme promuovono un nuovo processo che alla fine emerge come irripetibile storia di vita del nuovo venuto, che a sua volta influenzerà in modo unico le storie di vita di tutti gli altri con cui egli verrà in contatto. È a causa di questo intreccio già esistente di relazioni umane, con le sue innumerevoli volontà e intenzioni contrastanti, che l’azione raramente consegue il suo scopo; ma è anche a causa di questo medium, nel quale solo l’azione è reale, che essa “produce” storie, con o senza intenzione, con la stessa naturalezza con cui la fabbricazione produce cose tangibili.” - (Arendt, 2017, p. 202)
"La trama del mondo non viene dagli oggetti, ma dalle relazioni fra gli oggetti, e dai processi."
Il vivente e il significato
Siamo arrivati all’ultimo passaggio, il più recondito del nostro percorso. Il collegamento tra vivente e significato. Termini volutamente ignorati dalla visione informazionista ed algoritmica della realtà.
“Frequently the messages have meaning; that is they refer to or are correlated according to some system with certain physical or conceptual entities. These semantic aspects of communication are irrelevant to the engineering problem.” - (Shannon, 1948, p. 1)
Ma, per fortuna, anche qui troviamo il supporto della visione sistemica e complessa attraverso il contributo di diversi autori.
“Anche sotto condizioni esterne costanti e in assenza di stimoli esterni, l'organismo non è un sistema passivo, ma un sistema fondamentalmente attivo. Questo vale, in particolare, per quanto riguarda la funzione del sistema nervoso e il comportamento. È chiaro che ciò che è fondamentale è l’attività interna, piuttosto che la reazione a uno stimolo.” - (von Bertalanffy, 2004, p.175)
“Possiamo oggi accorgerci che noi abbiamo una mente relazionale incarnata e situata culturalmente; che nelle relazioni creiamo noi stessi mentre creiamo Il mondo; che i nostri vincoli e possibilità si esprimono in uno spazio e nel rapporto con i “sei lati del mondo”, davanti, dietro, sopra, sotto, a destra e sinistra.” - (Morelli, 2017, p. 69)
E dalla relazione non possiamo non passare infine al nostro corpo, come centro delle nostre esperienze.
“Ormai, come le parti del mio corpo formano insieme un sistema, così il corpo altrui e il mio sono un tutto unico, il rovescio e il diritto di un solo fenomeno.” - (Merleau-Ponty, 2003, p. 459)
E i nostri corpi come teatro in cui si svolgono ininterrottamente processi di significazione.
“Siamo dentro ai mutamenti, li avvertiamo e li interpretiamo in quanto questi ci cambiano. Condizione generale è che tali cambiamenti si manifestano come corrispondenza. A una variazione di un oggetto corrisponde una correlata variazione di un altro oggetto o di una serie di oggetti. Le sequenze lunghissime che ne vengono prodotte sono basate su tali corrispondenze singole o plurime, localizzate nel tempo, che hanno uno svolgimento seriale e una contestualità materiale. Questo definisce il tessuto di ciò che è in contatto reciproco: è il tessuto che ci ha prodotti e in cui agiamo.” - (Prodi 1977, p. 43).
Dove, infine, anche le distinzioni con l’ambiente, ma anche con l’altro, sotto certi punti di vista, non sono altro che definizioni operative.
“i neuroni, l’organismo di cui fan parte e l’ambiente che con questo interagisce, funzionano come reciproci selettori dei corrispondenti cambiamenti strutturali, e si accoppiano strutturalmente tra loro” - (Maturana e Varela, 1987, p. 145).
“Dunque, se la mente è un sistema di percorsi lungo i quali si possono propagare le trasformate di una differenza, è ovvio che la mente non termini dove termina la pelle. Essa comprende anche tutti i percorsi esterni alla pelle che sono pertinenti al fenomeno che si vuole spiegare.” - (Bateson, 1997p. 261)
Le conseguenze[1]
Non neutralità della tecnica
Siamo consapevoli che il titolo di questo paragrafo può suscitare resistenze. E’ infatti opinione comune, diffusa fino a diventare mantra dalle proprietà ansiolitiche, che: “la tecnologia è neutra, l’importante è l’uso che se ne fa.”
Qui affermiamo esattamente il contrario: ogni tecnologia non è neutra.
Proprio per i processi di significazione che abbiamo descritto la tecnologia non è neutra perché ogni tecnologia si inserisce nella relazione mutuamente generativa tra essere vivente e ambiente, modificandola. Agire su questa relazione vuol dire influenzarne entrambi i poli, compresa, nel caso dell’uomo, la cognizione della relazione stessa. Da questo la natura multiforme della tecnica, dove potere e liberazione corrispondono sempre anche a perdita. (Conte, 2021)
E’ quindi essenziale accettare il fatto che non ‘usiamo’ la tecnica, restandone separati, bensì cambiamo continuamente grazie agli strumenti tecnici che impieghiamo nelle nostre relazioni.
A nostro avviso è proprio nella natura non neutrale della tecnica, associata a quanto affermato nei paragrafi precedenti, che scaturiscono diversi rischi, alcuni dei quali andremo a dettagliare. Seguiranno idee che potrebbero in prospettiva mitigarli.
Di seguito elenchiamo due classi di rischio suddividendole in intrinseche alle tecnologie delle IA – cioè legate alle loro logiche di funzionamento – ed estrinseche – cioè collegate al possibile loro impiego.
Rischi intrinseci
Perdita di biodiversità culturale.
La reputazione delle IA è basata sulla convinzione, intenzionalmente diffusa, che si tratti di sistemi neutri che si limitano a trattare digitalmente la conoscenza umana.
Questo processo di ‘distillazione’ delle informazioni operato dalle IA, descritto sommariamente in apertura, si traduce nel prodotto atteso dai progettisti: un singolo output. In ciò queste tecnologie si differenziano profondamente da altri algoritmi e programmi, ad esempio quelli impiegati nei motori di ricerca del Web, destinati a produrre ‘molteplici output corrispondenti ad un certo input. Le risposte fornite dalle IA sono il prodotto da una filiera lunghissima di trattamento dei dati che inizia dalle materie prime. I cosiddetti dati di origine, sottoposti a processi industriali lunghi e articolati, in minima parte trasparenti, che producono l’equivalente di un alimento ultra-processato. Questo prodotto sintetico è diffuso globalmente e spesso reso disponibile nella lingua dell’utente finale. Esso contribuisce, giorno dopo giorno, alla costruzione di una cultura unica e globalizzata. Cultura che incorpora in sé invisibilmente gli assiomi dell’IA espressi in apertura (esistenza di una realtà oggettiva, contenuto informativo dei dati, macchine come agenti razionali, ecc.)
Quanto appena descritto può quindi rappresentare un’enorme accelerazione del processo di globalizzazione e omologazione già attivo da decenni. Una perdita di biodiversità culturale che inevitabilmente incide pesantemente sul pluralismo, quindi sulla democrazia.
E’ ragionevole prevedere che questa omologazione si articolerà sia storicamente, tendendo alla produzione di narrazioni storiche omogenee, sia geograficamente, tendendo alla diffusione di un’unica cultura a livello planetario.
“Abbiamo sofferto e ancora soffriamo talmente tanto a causa del fanatismo politico, religioso e culturale, che siamo legittimamente assetati di una comprensione universale. Un tipico esempio ne è la sindrome del villaggio globale. Pur nobile nell'intenzione, mi sembra solo un altro degno successore della mentalità colonialistica. Il colonialismo crede nel monomorfismo della cultura, nel senso che c'è in definitiva una sola civiltà: Ed ora ecco l'unificazione del mondo in un villaggio globale.” - (Panikkar, 1990)
Questi aspetti saranno infatti estremamente influenzati dai dati di input delle IA, portatori di pensieri, valori, idee e culture che si trovano al centro di ogni curva statistica di distribuzione dei dati forniti come input agli algoritmi. Ogni attività umana è il prodotto di credenze, culture, convinzioni, e le attività connesse a questi sistemi non fanno eccezione.
“Osservando gli strati di dati di training che strutturano e informano i modelli e gli algoritmi dell’intelligenza artificiale, possiamo vedere che la raccolta e l'etichettatura dei dati sul mondo sono un intervento sociale e politico, anche se mascherato da atto puramente tecnico.
Il modo in cui i dati vengono interpretati, raccolti, classificati e denominati è fondamentalmente un atto di creazione e perimetrazione del mondo, che ha enormi ramificazioni sul modo in cui l'intelligenza artificiale agisce sul mondo e sulle comunità che ne sono più colpite. Il mito della raccolta dei dati come pratica benevola nell’informatica ha oscurato le sue operazioni di potere, proteggendo coloro che ne traggono il maggior profitto ed evitando loro la responsabilità delle sue conseguenze.” - (Crawford, 2021, p. 135)
Retroazione positiva, la seconda ondata
Quanto appena scritto è alla base delle successive considerazioni.
Mentre scriviamo, la rete è letteralmente inondata dai prodotti delle nascenti Intelligenze Artificiali generative. Praticamente in ogni campo del sapere sempre più artefatti vengono prodotti grazie a queste tecnologie.
Questi prodotti, giorno dopo giorno, stanno popolando – o sarebbe meglio dire contaminando – le fonti dati che saranno date in pasto alle future versioni delle stesse Intelligenze Artificiali.
Il risultato, come è facilmente intuibile, sarà l’alterazione delle premesse statistiche che forniscono un’attendibilità, seppur relativa, agli output. Premesse che sottintendono una corrispondenza tra dati e fenomeni reali.
Nel momento in cui un output di una IA entrerà negli input di un’altra IA, si innescherà il noto fenomeno, studiato in cibernetica, di ‘retroazione positiva’. Un dato ultra-processato diverrà input di un processo che produrrà alla fine un dato ulteriormente processato.
Il risultato pratico sarà un’alterazione della base informativa, con uno ‘schiacciamento’ dei dati verso il centro delle curve di distribuzione.
In altre parole, le fonti dati di origine delle IA diverranno sempre più omogenee ed uniformi, di conseguenza i risultati saranno avvertiti come sempre più precisi ed univoci. E probabilmente tutto ciò sarà anche accolto favorevolmente.
Questi risultati a loro volta influenzeranno le idee degli utenti delle AI, confermando le premesse implicite ed alimentando il noto fenomeno della ‘causalità circolare’.
Come effetto, l’alterazione del contesto informativo in cui ognuno di noi si muove inevitabilmente avrà riflessi sul pluralismo, pilastro centrale di ogni impianto democratico.
Rischi esterni alla tecnologia
Manipolazione e logica di mercato
La costruzione dei pensieri, per ognuno di noi, dipende in larga parte dall’ambiente sociale in cui siamo immersi e dalla nicchia evolutiva e informativa in cui ci muoviamo.
Ogni azione che facciamo deriva dai nostri valori, idee, convinzioni, credenze. Ogni nostro prodotto è imbevuto di queste premesse. Non possono far eccezione i prodotti delle tecnologie di IA.
“Abbandoniamo, quindi, la presunzione di essere esseri razionali, poiché ogni dominio razionale in cui ciascuno di noi si muove a ogni istante è costituito come un dominio di coerenze operative dall’accettazione delle premesse fondamentali che lo definiscono in un atto emozionale.” - (Maturana, 2006, pag. 110).
Le IA sono progettate in un preciso contesto economico e di mercato nelle quali sono servizi nell’accezione commerciale del termine.
“Nell’intelligenza artificiale i set di dati non sono mai materie prime che alimentano algoritmi: sono di per sé atti politici. L'intera pratica di raccogliere dati, classificarli ed etichettarli e quindi usarli per addestrare quei sistemi è una forma di politica, che ci ha portato a quelle che vengono chiamate «immagini operative», rappresentazioni del mondo realizzate esclusivamente per le macchine.” - (Crawford, 2021, p. 252)
Si tratta di servizi commerciali che sono forniti a clienti (Stati, organizzazioni, aziende, privati, ecc.) e che si muovono nell’alveo del modello di marketing globale che tende dichiaratamente alla manipolazione dell’individuo.
“[…] l’intero gruppo sociale è parte integrante dell’universo delle reti: psicologi, economisti, esperti di marketing, ergonomisti, terapeuti, webdesigner... tutti contribuiscono a un’ingegneria sociale in sintonia con la convinzione espressa da Skinner secondo la quale la scienza è più attrezzata della politica per ‘maneggiare’ l’uomo.” - (Besnier, 2013, p. 122)
Sulla base delle esigenze generali o specifiche di questi clienti i servizi vengono tarati dai loro produttori. Come impone la logica di mercato, vi è poi un processo continuo teso al miglioramento cercando di far aderire il servizio alle aspettative del pubblico mentre contemporaneamente si cercano di modificare il senso e le aspettative degli utenti per farle aderire al servizio offerto.
“La comunicazione prodotta dall’avvento dell’industria di senso avrebbe generato un cortocircuito mentale […] proprio nella costruzione di una nuova percezione del sé, della vita collettiva, della società e della vita stessa. La costruzione dell’idea della vita materiale, della quotidianità individuale e sociale, usciva dal terreno delle “semplici” relazioni umane per diventare il prodotto di una industria che produce profitto nella costruzione del “senso della vita”. Una industria che mette la propria “potenza” a disposizione di chi ha i mezzi economici per utilizzarla, sia essa un’impresa che deve vendere, sia esso un uomo politico o manager o un partito. L’avvento della rete e della potenza della comunicazione social, inoltre, sta espandendo enormemente le possibilità di generare fiammate di consenso proprio basate sulla stratificazione del “senso” della vita e degli eventi.” - (Bellucci, 2019, p. 31)
Sosteniamo esista un fossato tra l’approccio di mercato fin qui descritto, con il quale queste tecnologie sono sviluppate e guidate, e una visione democratica.
“Se le tecnologie robotiche, e non esse soltanto, dovessero essere abbandonate a una pura logica di potenza, sostanzialmente non dissimile da quella che ha «deregolato» l’ambito dell’economia, si assisterebbe a un divorzio crescente tra umanità e democrazia, intesa nel suo carattere di regime politico dove l’impiego di qualsiasi mezzo non può essere separato dal rispetto di principi e di diritti fondamentali.” - (Rodotà, 2012, p. 375)
Questo non è un rischio inedito, tuttavia, crediamo che le dinamiche descritte possano crearne i presupposti per una sua significativa crescita, sia in termini di probabilità, sia di impatto.
Combinazione di rischi
Il risultato finale, che combina il rischio intrinseco – strutturale alle IA – con il rischio estrinseco – l’impiego della tecnica nella logica di mercato – crediamo essere la crescita smisurata di quel fenomeno che già Alexis de Tocqueville chiamò “dittatura della maggioranza” – questa volta ‘guidata’ da interessi privati e ideologie specifiche.
Inoltre, le potenzialità delle IA, senza opportuna governance, possono portare ad un’esacerbazione di quell’appiattimento da cui aveva già messo in guardia Heidegger, usando l’espressione “esistenza inautentica”:
“[…]. In questo stato di irrilevanza e di indistinzione il Si esercita la sua tipica dittatura. Ce la passiamo e ci divertiamo come ci si diverte; leggiamo, vediamo e giudichiamo di letteratura e di arte come si vede e si giudica. Ci teniamo lontani dalla gran massa come ci si tiene lontani, troviamo scandaloso ciò che si trova scandaloso. Il Si, che non è un Esserci determinato ma tutti (non però come somma), decreta il modo di essere della quotidianità. Il Si ha le sue particolari maniere di essere […]. La medietà è un carattere esistenziale del Si. Nel Si, ne va, quanto al suo essere, essenzialmente di essa. Esso si mantiene perciò nella medietà di ciò che si conviene, di ciò che si accoglie e di ciò che si rifiuta, di ciò a cui si concede credito e di ciò a cui lo si nega. Nella determinazione di ciò che è possibile o lecito tentare, la medietà sorveglia ogni eccezione. Ogni primato è silenziosamente livellato. Ogni originalità è dissolta nel risaputo, ogni grande impresa diviene oggetto di transazione, ogni segreto perde la sua forza. La cura della medietà rivela una nuova ed essenziale tendenza dell’Esserci: il livellamento di tutte le possibilità di essere.” - (Heidegger, 1976, p. 163)
Proposte per la mitigazione rischi
Rischi strutturali e sociali come quelli descritti non possono essere eliminati. Ragionevolmente è possibile immaginare delle azioni di mitigazione che intervengano sulla probabilità e sull’impatto del loro verificarsi.
A questo punto possiamo intravedere la struttura comune che è sullo sfondo delle dinamiche fin qui evidenziate: la semplificazione. ‘Banalizzazione’, termine dal significato specifico nel linguaggio dell’epistemologia della complessità.
La banalizzazione come prodotto del processo di selezione che le IA sono progettate per portare a compimento e che dal mare magnum della conoscenza mondiale, distillano la risposta all’esigenza dell’utente.
Da questa estrema sintesi nascono le seguenti idee di mitigazione dei rischi.
Molteplici, diverse, aperte - mitigare il rischio da perdita di biodiversità culturale
“Un sistema ha tante maggiori probabilità di interagire costruttivamente con l'ambiente quanto più è differenziata e diversificata la sua struttura interna.” - (Ceruti, 2009, p. 75)
- Già oggi, poche, grandi aziende, competono per la dominazione del fruttuoso mercato delle IA. Occorre stabilire norme e regolamenti che limitino la diffusione su scala mondiale di singoli sistemi di IA e, al tempo stesso, favoriscano la proliferazione di nuovi sistemi di IA.
- Oggi le Corporation produttrici di sistemi di IA non dichiarano e rendono accessibili le proprie fonti dati. Si propone di istituire organizzazioni dedicate ad eseguire audit e certificare queste fonti. Ulteriori processi di certificazione possono essere impiegati per accertare la varietà nella composizione delle basi dati e nel validare la filiera di trasformazione dei dati. Come è facile notare si tratta di proposte già realizzate in altri ambiti, come quello agro-alimentare. Ambito che condivide con gli argomenti qui trattati la complessità intrinseca, la moltitudine di attori e delle logiche applicate.
- Le IA, per poter essere impiegate in ambiti ‘sensibili’, e sempre esclusivamente a supporto delle decisioni umane, dovranno essere opensource, e prevedere forme di auditing degli archivi e delle configurazioni.
Certificazione Bio - mitigare il rischio da retroazione positiva
In maniera progressiva ma con un’accelerazione straordinaria negli ultimi mesi, abbiamo assistito all’invasione di prodotti di IA in ogni canale digitale: testo, audio, video.
Tuttavia, ogni prodotto delle IA ha una qualche attendibilità e significato se si basa sulla conoscenza umana, digitalmente codificata, non su output di altri algoritmi di IA.
E’ quindi essenziale alimentare questi sistemi esclusivamente con prodotti dell’attività umana. A questo proposito si propone la creazione di una ‘certificazione Bio’, che contraddistingua gli artefatti prodotti da esseri umani come ‘bollino’. Questi oggetti ‘certificati’ come prodotti umani, assieme ai dati provenienti dal trattamento automatico delle informazioni (sistemi informativi non IA) dovranno essere gli unici artefatti ammessi ad essere raccolti nei big data alimentanti le IA.
Tavoli normativi e tecnici potrebbero essere avviati per indirizzare questa questione, dove sicuramente l’aspetto non insormontabile è quello meramente tecnico. Si pensi alle tecnologie già oggi disponibili per la assicurare validità, veridicità e paternità di un documento, come la firma digitale e registri distribuiti e sistemi di tracciatura basati su blockchain.
Ciò non toglie che si tratti di una sfida estremamente impegnativa da molti punti di vista ma occorre considerare l’entità della posta in gioco. La mancata distinzione tra artefatti umani e artificiali, della quale già alcuni autori si sono occupati (Pasquale, 2021, p. 27), può compromettere in prospettiva l’attendibilità di una qualsiasi informazione digitalizzata, la credibilità stessa di Internet ed esporre gli utenti a scenari manipolatori estremi.
Negli ultimi mesi, ed in particolare in relazione alla elezioni presidenziali degli Stai Uniti, sono nate diverse iniziative di contrasto dei deepfake, basate sulla distinzione tra umano e artificiale. Tuttavia, nella quasi totalità dei casi, si tratta di iniziative volte a “marcare” i prodotti delle IA, piuttosto che a identificare i prodotti umani.
E’ opinione di chi scrive che, proprio per le complesse dinamiche fin qui descritte, si tratti di palliativi inefficaci, di limitata portata e ingenuamente basati su una presunta buona volontà generalizzata.
Protezioni - Mitigare il rischio di manipolazione e mercato
“Ogni complessificazione organizzazionale si esprime in un accrescimento di varietà all'interno di un sistema.” - (Edgar Morin, 2001, p. 406)
Proponiamo di utilizzare gli strumenti politici e democratici per mitigare questo rischio.
- Estensione delle legislazioni antitrust in ambito IA.
- Potenziamento degli strumenti e le rafforzare le capacità degli organi di governo e vigilanza già esistenti nell’ambito di organizzazioni transnazionali, come le Nazioni Unite (vedi appendice).
- Definizione ed applicazione di norme specifiche, come la ISO/IEC FDIS 42001.
- Estensione e rafforzamento di direttive internazionali, come l’AI-ACT europeo.
Il futuro
“È difficile fare previsioni, soprattutto sul futuro” - (Niels Bohr)
Prospettive a breve termine
Da quanto fin qui esposto la previsione di un prossimo futuro non è rosea, nonostante queste proposte di mitigazione. Le diverse prospettive epistemologiche descritte sono estremamente sproporzionate tra loro come diffusione e impatto.
A questo va aggiunto che l’attuale evoluzione esponenziale dell’IA tende a rafforzare il paradigma sotteso accelerandone la diffusione, con l’effetto di aumentare il divario tra le “biologie” dei singoli individui e quindi disaccoppiandoli strutturalmente dal loro ambiente, fisico e sociale.
E’ noto già alla prima cibernetica cosa accade ad un sistema che si trova in “retroazione positiva”, cioè sottoposto a forze circolari di accelerazione: collassa. Stesso concetto può essere espresso anche in altri modi.
“Bateson era un pensatore profondamente ecologico, e concepiva il mondo come costituito da collegamenti e processi. Tentò di mostrare che sistemi molto diversi tra loro potevano esprimere alcune caratteristiche identiche”. Con il termine «schismogenesi», per esempio, indicava ciò che in questo volume chiamo processi fuori controllo’, ossia processi di crescita che si rafforzano vicendevolmente fino a che, in ultima istanza, tendono al collasso, a meno che, come Bateson indica, una «terza istanza» non entri nel processo e ne muti il rapporto.” - (Eriksen, 2017, p. 29)
Prospettive a lungo termine
Troppo spesso pensiamo alla storia come fosse lineare. E’ spesso invece utile assumere una prospettiva che assuma una certa ciclicità delle vicende umane. D’altra parte, a ben vedere, nessuna civiltà è mai durata in eterno. Cosa resta dell’antico Egitto, dei giardini pensili di Babilonia o del tempio di Apollo? Le civiltà si succedono e anche i sistemi di governo vanno incontro a stagioni o fasi.
“Gli uomini prima amano d’uscir di soggezione e desiderano ugualità: ecco le plebi nelle repubbliche aristocratiche, le quali finalmente cangiano in popolari; dipoi si sforzano superare gli uguali: ecco le plebi nelle repubbliche popolari, corrotte in repubbliche di potenti; finalmente vogliono mettersi sotto le leggi: ecco l’anarchie o repubbliche popolari sfrenate, delle quali non si dà piggiore tirannide, dove tanti sono i tiranni quanti sono gli audaci e dissoluti delle città.” - (Vico, 1744, XCV)
Proprio per tali considerazioni, in una visione più a lungo termine, diviene preziosa l’opera di salvaguardia e alimentazione di una prospettiva differente da quella dominane. Una visione di mondo che possa divenire una realtà appetibile proprio a seguito del crollo di quella oggi egemone.
Conclusioni
Abbiamo voluto, in queste righe, suggerire degli spunti, non certo soluzioni pronte all’uso, proprio perché la predisposizione di misure adeguate ed operative non può che passare per la mediazione ed il confronto democratico.
“Se il potere politico non assolve più al suo ruolo, se difetta, anzi peggio se si inginocchia davanti a poteri da cui è affascinato e di cui è convinto che detengano l’unica verità della nostra epoca, allora ci resta solo una scelta: sostituire la politica con il politico, ovvero con la riappropriazione da parte di cittadini, associazioni, sindacati, gruppi istituzionalizzati o meno, del diritto inalienabile di esercitare individualmente e collettivamente la propria libertà decisionale e di giudizio. E dalla misura del nostro coinvolgimento dipende nientemeno che il futuro della nostra civiltà.” - (Sadin, 2018, p. 159)
Concludiamo condividendo l’elenco delle capacità democratiche ideali espresse da Martha Nussbaum, evidentemente non riducibili né delegabili a qualunque algoritmo:
-
La capacità di ragionare sui problemi politici che riguardano la nazione, di esaminare, riflettere, discutere e giungere a conclusioni senza delegare alla tradizione o all’autorità.
-
La capacità di riconoscere nei concittadini persone con pari diritti, per quanto possano essere diversi per razza, religione, genere e orientamento sessuale: di guardare a loro con rispetto, in quanto fini, non in quanto strumenti da manipolare per il proprio tornaconto.
-
La capacità di preoccuparsi per la vita degli altri, di cogliere quali politiche siano significative per le opportunità e le esperienze dei propri concittadini, di tutti i tipi, e anche delle persone al di fuori della propria nazione.
-
La capacità di raffigurarsi la varietà dei problemi della vita umana così come essa si svolge: di pensare l'infanzia, l'adolescenza, i rapporti familiari, la malattia, la morte e molto altro tenendo in considerazione un ampio spettro di storie personali, e non solo un insieme statistico.
-
La capacità di giudicare gli uomini politici criticamente, ma in base a precise informazioni e con la consapevolezza delle reali possibilità a loro disposizione.
-
La capacità di pensare al bene della nazione intera, non a quello del proprio gruppo locale.
-
La capacità di vedere la propria nazione come parte di un ordine mondiale complesso, in cui problematiche di vario tipo richiedono una discussione transnazionale per la loro soluzione. - (Nussbaum, 2014, p. 42)
Il tema trattato in questo articolo è estremamente delicato. Nel prossimo futuro la politica e la società civile saranno chiamata a fare i conti con l’impatto di queste nuove tecnologie. La posta in gioco è capitale. Ogni cittadino si troverà spesso di fronte ad un bivio: da una parte un confortevole abbandono a sistemi sempre più automatizzati, dall’altra impegnarsi a usare solo strumentalmente certe soluzioni e a mantenere faticosamente le redini della propria esistenza coltivando una speranza. Citando Cristian Bobin:
“Chi ha detto che la vita deve essere facile e comoda?
È comodo amare?
È comodo soffrire?
Lo è sperare?
Bibliografia e sitografia
- AA.VV., A Legacy for Living Systems, Gregory Bateson as Precursor to Biosemiotics
- AI Election Accord, Tech Accord to Combat Deceptive Use of AI in 2024 Elections
- Arendt Hanna, Vita Activa, Bompiani, 2017
- Bartolini Elena, L’essere umano come ζῷον λόγον ἔχον. L’animale relazionale
- Bateson G. Una sacra unità, Altri passi verso un’ecologia della mente, Adelphi, 1997
- Bellucci Sergio, L’industria dei sensi, Ed. Harpo, 2019
- Besnier Jean-Michel, L’uomo semplificato, Vita e Pensiero, 2013
- von Bertalanffy Ludwig, Teoria generale dei sistemi. Fondamenti, sviluppo, applicazioni, Mondadori, 2004
- Bobin Cristian, abitare poeticamente il mondo, Animamundi, 2019
- Brier Søren, Cybersemiotics Why information is not enough!
- Ceruti Mauro, Il vincolo e la possibilità, Raffaello Cortina, 2009
- Conte Giuseppe, Schiavi della libertà, in Bellucci Sergio. AI-WORK La digitalizzazione del lavoro. Jaca Book, 2021
- Crawford Kate, Né intelligente né artificiale, Il Mulino, 2021
- Crouch Colin, Postdemocrazia, Laterza, 2005
- D’Attilia Anna e Ruffilli Lucilla, Come i fili di un tessuto Confini, relazione, responsabilità.
- Dominici Piero, Educare alla complessità…perché “Democrazia è complessità”, 1995
- Eriksen Thomas H., Fuori controllo, Einaudi, 2017 - EU Artificial Intelligence Act, Euronews, Il più grande anno elettorale di sempre: si vota in 76 Paesi e per le europee, 2024
- von Foerster, Heinz, “An epistemology for living things”, in K. Wilson (a cura di), The collected works of the Biological Computer Laboratory, Illinois Blueprint Corporation, Peoria, Ill, 1976.
- Giorgi Franco, La svolta relazionale in Gregory Bateson
- Heidegger Martin, Essere e Tempo, Longanesi, 1976
- HDBlog.it, Guerra ai deepfake AI: la crittografia per proteggere le presidenziali USA, ISO 42001:2023, Information technology, Artificial intelligence, Management system
- Kelsen Hans, La democrazia, Il Mulino, 2010
- Laing Ronald David, in Keeney Bradford P., L'estetica del cambiamento, Astrolabio, 1985
- Linn Belle, Welcome to the Era of BadGPTs, The Wall Street Journal, 2024
- Maturana Humberto, Emozioni e linguaggio in educazione e politica. 2006, Eleuthera
- Merleau-Ponty M., Fenomenologia della percezione, Bompiani, 2003
- Morelli Ugo, Noi, infanti planetari, Meltemi, 2017
- Morin Edgar, Il Metodo 1, Raffaello Cortina, 2001
- Nwaokocha Amaka, Azienda texana sottoposta a indagine penale per aver ingannato gli elettori statunitensi con l'AI di Joe Biden
- Nussbaum Martha, Non per profitto. Perché le democrazie hanno bisogno della cultura umanistica. Il Mulino, 2014
- Manghi Sergio, Casa di vetro, Gregory Bateson, l’ecologia e il sacro
- https://www.circolobateson.it/archiviobat/2016/Bateson_Sacro_Ecologia.pdf
- Maturana Humberto, Varela Francisco, L’albero della conoscenza, Garzanti, 1987
- Padoan Ivana, Ancora Bateson…, il Melangolo, 2020
- Panikkar Raimon, The pluralism of truth, 1990
- Pasquale Frank, Le nuove leggi della robotica, difendere la competenza umana nell'era dell'intelligenza artificiale, Luiss University Press, 2021.
- Pozza Giuliano, “Algocrazia”: come l’intelligenza artificiale minaccia la libertà umana, 2020
- Prodi Giorgio, Le basi materiali della significazione, Mimesis, 2021
- Robuschi Camilla, L’estetico quale strumento di modellizzazione nella prospettiva della biosemiotica, 2021
- Rodotà Stefano, Il diritto di avere diritti, Ed. Laterza, 2012
- Rovelli Carlo, Ogni cosa è informata, 2014
- Rovelli Carlo, Helgoland, Adelphi, 2020
- Sadin Eric, La silicolonizzazione del mondo, Ed. Giulio Einaudi, 2018
- Shannon C., A Mathematical Theory of Communication, The Bell System Technical Journal, 1948
- Sini Carlo, Schegge di pensiero 10: l'intelligenza artificiale è una superstizione, 2023
https://www.youtube.com/watch?v=qvmwWp0SZmI (collegamento verificato a giugno 2023) - de Tocqueville Alexis, La democrazia in America, Utet, 2007
- United Nations, A global digital compact – an open, free and secure digital future for all, 2023
- United Nations, Providing global steerage on artificial intelligence, 2023
- Vico, Giambattista, La Scienza Nuova, Libro I, Dello Stabilimento de’ Principii, Degli elementi, XCV, 1744
- Warwick John Pickering, On Whitehead, Embodied Cognition and Biosemiotics, Chromatikon 1, Presses Universitaries de Louvain
- Wired, Le foto false di Trump per ingraziarsi la comunità afroamericana, 2024
- Zhang Adrianna, Ukrainian YouTuber Finds Her AI Clone Selling Russian Goods on Chinese Internet, 2024
- [1]Questa parte del testo prende spunto dal background paper “Intelligenza Artificiale e rischi per la democrazia”, prodotto per un simposio sull’AI del 28/06/2023. Ulteriori informazioni .