Scrive Noah Harari che “quando la tecnologia ci permetterà di reingegnerizzare le menti umane, Homo sapiens scomparirà […] e un processo completamente nuovo avrà inizio”. La previsione può rivelarsi errata ma se si riflette sulla profondità dei cambiamenti in corso e il ruolo che la tecnologia sta avendo nel determinarli, si comprende che siamo in una fase di cambio di paradigma. Quando il nuovo emergerà noi potremmo non essere più umani. Cyborg, simbionti, semplici intelligenze artificiali più o meno ibridate, potenti, intelligenti e capaci di apprendere ma non più umane.
Se questa prospettiva è verosimile è più che mai necessaria una riflessione approfondita, puntuale e critica di quanto sta avvenendo. Paradigmatico per questa riflessione è il tema dell’intelligenza artificiale che, più di altri, suggerisce bene il rischio e la sfida che tutto il genere umano si trova di fronte. Un rischio da molti sottovalutato e una sfida da molti accettata forse con eccessiva superficialità. Un tema che comunque è di interesse generale e vale la pena approfondire. E la riflessione deve essere fatta da tecnici, esperti, fautori della IA, ma senza mai dimenticarsi di essere esseri umani.
In questo articolo proponiamo l’intervista che Carlo Mazzucchelli ha condotto con Giovanni Postiglione, umanista digitale e progettista di storytelling culturale per musei e luoghi storici. L'intervista del 2020 è stata originariamente pubblicata sul portale SOLOTABLET.
Buongiorno, può raccontarci qualcosa di lei, della sua attività attuale, del suo interesse per l’intelligenza artificiale? Ritiene utile una riflessione sull’era tecnologica e dell’informazione che stiamo sperimentando? Su quali progetti, idee imprenditoriali sta lavorando? Con quali finalità e obiettivi? A chi sono rivolti e in che ambiti sono implementati? Ciao Carlo e grazie per questo scambio di pensieri. Io sono un Conservatore dei Beni Culturali specializzato in storia della città.
Nel 2009 ho intuito che i tempi sarebbero cambiati e che il Patrimonio culturale avrebbe avuto bisogno di una nuova comunicazione e di un contributo multidisciplinare per coinvolgere il pubblico abituato ormai a comportamenti e stimoli nuovi con il progresso della tecnologia e dei mondi digitali.
Da questa analisi ho investito il mio percorso nell’Umanesimo Digitale per il Cultural Heritage. Per darti un’immagine più efficace, in metà del mio cervello pulsa la mia radice umanistica, legata alle discipline storico-artistiche, alle relazioni umane, alla narrazione applicata alla comunicazione dei luoghi storici e dei musei; l’altra metà è connessa alle nuove tecnologie, alle “realtà miste”, ai nuovi racconti trans e multimediali, ai luoghi forti dell’engagement (fumetti, gaming, cinema, serie TV). La formazione universitaria non mi è bastata, e ho proseguito in modo multidisciplinare di accrescere una visione più completa (web marketing, psicologia, neuroscienze, informatica ecc.).
L’interesse per l’AI nasce da questa apertura ai progressi tecnologici e informatici, come processo di nuove filosofie nell’elaborazione e gestione di contenuti, dati e servizi. La mia preparazione in materia è puramente amatoriale, ma mi affascina molto, al di là del progresso tecnologico, come percorso umano.
Credo che parlare di AI sia prima di tutto un parlare di filosofia, di riflessioni umanistiche, di pensiero umano in evoluzione, di psicologia dell’uomo. Dunque, sì, è utile, necessario e sano parlare di AI perché è un momento di crescita delle potenzialità dell’uomo che riflette su di sé, prima che di tecnologia o di algoritmi.
Bisogna parlarne, bisogna documentarsi, bisogna investire, senza timore, bigottismi e pregiudizi. Bisogna parlarne perché tutti abitiamo nell’era delle interfacce tecnologiche, dobbiamo farne i conti, riconoscere opportunità le, i pericoli, le sfide, i limiti e scegliere le finalità. Parlare è sempre costruttivo se si vuole capire dove andare e cosa costruire.
In questo periodo sto cercando di sostenere musei e operatori a resistere al duro sacrificio del lockdown culturale, con l’educazione mentale alla trasformazione e al rinnovamento (comunicativo e strumentale) che si è palesato nella crisi. Inoltre, nello specifico sto lavorando a un progetto di storydoing e storytelling per la didattica museale destinate a un target misto (giovani e adulti). E sto continuando a investire molto su me stesso, con la formazione, il networking, e il personal branding.
Oggi tutti parlano di Intelligenza Artificiale ma probabilmente lo fanno senza una adeguata comprensione di cosa sia, delle sue diverse implementazioni, implicazioni ed effetti. Anche i media non favoriscono informazione, comprensione e conoscenza. Si confondono IA semplicemente reattive (Arend Hintze) come Deep Blue o AlphaGo, IA specializzate (quelle delle Auto), IA generali (AGI o Strong AI) capaci di simulare la mente umana e di elaborare loro rappresentazioni del mondo e delle persone, IA superiori (Superintelligenze) capaci di avere una coscienza di sé stesse fino a determinare la singolarità tecnologica. Lei che definizione dà dell’intelligenza artificiale? Quale pensa sia il suo stato di evoluzione corrente e quali possono essere quelle future? Pensa che sia possibile in futuro una Superintelligenza capace di condurci alla Singolarità nell’accezione di Kurzweil?
Non sono nella posizione di poter dare una “definizione” all’AI e credo che serva a poco se questo fenomeno è in piena crescita e continua mutazione. L’AI è una storia ancora al suo primo atto.
Ti posso dare la mia visione: per me l’AI è un’occasione, una sfida che l’uomo si sta concedendo per confrontarsi con sé stesso, per capire dove vuole andare e come, sia dal punto di vista del progresso informatico sia sul piano valoriale della persona, dell’immagine, dell’interazione. È interessante capire perché l’uomo si sta impegnando tanto a dare autonomia e potere a un algoritmo per garantire aiuti e servizi performanti alla comunità e alle aziende, anziché potenziarsi egli stesso. Ma forse è un’ammissione di limiti o un diverso modo di potenziarsi, indiretto. Il punto di partenza di questi discorsi è sempre un ragionamento e questo allaccia le AI a discipline umanistiche. Il valore del volto umano, la fluidità tra identità reale o digitale, la ricerca e il rilascio dei dati, l’interazione utente-software, la scelta del linguaggio, i modelli esperienziali, sono tutti argomenti che non tendono alla macchina, quanto di più all’uomo.
Credo che il futuro performante e lo scopo principale dell’AI possa essere quello di autonomia intelligente che sollevi l’uomo da azioni, calcoli e servizi faticosi, difficili e noiosi, ma anche lo strumento per ottenere identificazioni, contenuti, informazioni e soluzioni quanto più corrette possibile. Un ottimizzatore di tempo e di energia, ecco.
No non credo che in futuro una SuperIntelligenza possa inaugurare la drammatica teoria di Singolarità di Kurzweil: confido in quella parte sana dell’uomo che in qualche modo alzerà la voce per impedire di distruggere sé stesso, o almeno di rallentare il processo e limitare i danni, e si chiama istinto di sopravvivenza e legge morale.
L’IA non è una novità, ha una storia datata anni ’50. Mai però come in questi tempi si è sviluppata una reazione preoccupata a cosa essa possa determinare per il futuro del genere umano. Numerosi scienziati nel 2015 hanno sottoscritto un appello (per alcuni un modo ipocrita di lavarsi la coscienza) invitando a una regolamentazione dell’IA. Lei cosa ne pensa? È per lasciare libera ricerca e implementazione o per una regolamentazione della IA? Non crede che qualora le macchine intelligenti rubassero il comando agli esseri umani, per essi la vita avrebbe meno senso? A preoccupare dovrebbe essere la supremazia e la potenza delle macchine ma soprattutto l’irrilevanza della specie umana che potrebbe derivarne. O questa è semplicemente paura del futuro e delle ibridazioni che lo caratterizzeranno? Secondo il filosofo Benasayag le macchine sono fatte per funzionare bene, noi per funzionare (processi chimici, ecc.) ed esistere (vivere). Gli umani non possono essere ridotti a una raccolta di (Big) dati o al calcolo binario, hanno bisogno di complessità, di un corpo, di senso, di cultura, di esperienze, di sperimentare la negatività e il non sapere. Le macchine no e mai ne avranno necessità. O secondo lei si? Non crede che fare completo affidamento sulle macchine ci porti all’impotenza?
Credo sia stato giusto, nel 2015, come oggi, intervenire, quando opportuno, per regolamentare lo sviluppo potenziale delle AI, soprattutto perché quando riguarda gli ambiti della privacy, dell’uso dei dati personali, dell’etica e la psicologia cognitiva comportamentale. Se l’AI potrà diventare una tecnologia “autonoma”, ricordiamoci che è pur sempre un’invenzione dell’uomo, e come tale l’errore fatale potrà essere sempre in agguato se gli scopi e gli usi di questo prodotto non verranno costantemente monitorati. Insomma, un giocattolo deve essere corredato del foglio di istruzioni, altrimenti si ripeterà la storia dell’energia atomica.
Se le macchine dovessero rubare il comando agli esseri umani, saranno stati loro stessi ad averlo voluto volerli. Dunque, mi domanderei: è questo il senso della vita che volevano? Concedere un compito complesso a un software intelligente può condurre a una vita migliore, sostituire le relazioni sociale con un algoritmo forse meno.
Sì, le visioni del futuro spaventano perché al nostro cervello non piace cambiare abitudine e lasciare le certezze. Gli ibridi sono qualcosa di innaturale, di forzato, di combinato con ipotesi e tentativi, di sfuggente al controllo, e non sempre riescono con successo. Io stesso sono un ibrido, un professionista del settore della cultura immerso in discipline tecniche diverse dalle percezioni sensoriali e dai comportamenti di uso del mondo analogico; eppure mi è servito, è stato necessario per sopravvivere alla crisi occupazionale, per avere competenze richieste dal mercato e per aiutare le imprese culturali a compiere lo stesso processo di salvezza.
Concordo con Benasayag: noi ancora non ci conosciamo totalmente come “macchine complesse”, a partire dal funzionamento del cervello, e forse non basterà una vita per farlo, chi lo sa. Siamo molto di più, siamo un universo multiforme di intuizioni, emozioni, coscienza, evoluzioni, cambiamenti che difficilmente potremo trasferire a una tecnologia, e difficilmente questa potrà superarci. Spesso non ci comprendiamo e non sappiamo guarire e risolvere le nostre ferite. Abbiamo anche un’anima, una psiche che ci muove e ci identifica, fino a prova contraria, noi dovremmo essere “superiori nel regno animale”; non credo che l’uomo rinunci così facilmente a questo primato. Le esperienze delle macchine possono essere relative al campo di applicazione per il quale vengono progettate, e nel quale potranno anche diventare super eccellenti, ma la poliedricità e la vastità di incognite di e stimoli-reazioni del mondo esperienziale umano è ineguagliabile.
Al di là del discorso AI, in generale fare totale affidamento su qualcosa, anche sulle stesse persone, è frustrante, svilisce la fiducia e l’ambizione, e comporta dei rischi. Forse la legge dell’evoluzione ci potrà condurre ad abbandonare azioni che non reputiamo più necessarie o gratificanti (così come la coda perduta), e lasceremo che se ne occupino le macchine (molto già lo fanno loro): mi domando se già questo può essere vissuto, viceversa, come una sensazione di potere.
Nel suo ultimo libro (Le cinque leggi bronzee dell’era digitale), Francesco Varanini rilegge a modo suo e in senso critico la storia dell’intelligenza artificiale. Lo fa attraverso la (ri)lettura di testi sulla IA di recente pubblicazione di autori come: Vinge, Tegmark, Kurzweil, Bostrom, Haraway, Yudkowsy, e altri. La critica è rivolta ai tecno-entusiasti che celebrando l’avvenire solare della IA si mettono, “con lo sguardo interessato del tecnico” dalla parte della macchina a spese dell’essere umano. È come se attraverso l’IA volessero innalzare l’uomo proprio mentre lo stanno sterilizzando rendendolo impotente, oltre che sottomesso e servile. Lei da che parte sta, del tecnico/esperto/tecnocrate o dell’essere umano o in una terra di mezzo? Non la preoccupa la potenza dell’IA, la sua crescita e diffusione (in Cina ad esempio con finalità di controllo e sorveglianza)?
Io sono proprio nella posizione “di mezzo” come umanista digitale. Ogni giorno calibro il mio obiettivo cercando di bilanciarlo tra umanesimo e tecnologia. Per quanto io riconosca e promuova l’uso delle moderne tecnologie immersive e le opportunità del digitale, pongo sempre l’essere umano al centro e a capo di tutto. L’uomo è partenza e finale, modulo base per progettare strategie e prodotti.
Più la tecnologia progredisce e più bisogna fare attenzione che sia human-centred. Io riconosco i progressi della tecnologia solo quando questa è al servizio dell’uomo, dei suoi sani bisogni, quando favorisce esperienze costruttive. Ogni tecnologia prodotta dall’uomo è nata da un bisogno, a partire dalla ruota, e tutto dipende dall’uso che se ne vuole fare. Non mi preoccupa l’AI come tipologia di tecnologia o di algoritmo dalle potenzialità umanoidi, non mi spaventa neanche la sua diffusione; mi spaventerà sempre di più prima l’uomo, il pensiero con cui progetterà le AI, le ambizioni che lo muoveranno, le intenzioni “interiori”.
Ai tempi del Coronavirus molti si stanno interrogando sulla sparizione del lavoro. Altri invece celebrano lo smartworking e le tecnologie che lo rendono possibile. Là dove lo smartworking non è possibile, fabbriche, impianti di produzione ecc., si diffonde la robotica, l’automazione e l’IA. Il dibattito sulla sparizione del lavoro per colpa della tecnica (capacità di fare)/tecnologia (impiego della tecnica e della conoscenza per fare) non è nuovo, oggi si è fatto più urgente. Le IA non stanno sostituendo solo il lavoro manuale ma anche quello cognitivo. Le varie automazioni in corso stanno demolendo intere filiere produttive, modelli economici e organizzativi. Lei cosa ne pensa? L’IA, per come si sta manifestando oggi, creerà nuove opportunità di lavoro o sarà protagonista della distruzione di posti di lavoro più consistente della storia come molti paventano? Alcuni sostengono che il futuro sarà popolato di nuovi lavoratori, tecnici che danno forma a nuove macchine (software e hardware), le fanno funzionare e le curano, tecnici che formano altri tecnici e ad altre forme di lavoro associate al funzionamento delle macchine tecnologiche. Sarà veramente così? E se anche fosse non sarebbe per tutti o per molti! Si verrebbero a creare delle élite ma molti perderebbero comunque il lavoro, l’unica cosa che per un individuo serva a essere sé stesso. Nessuna preoccupazione o riflessione in merito?
Questo mi preoccuperebbe, certo. Non so fino a che punto le affermazioni di questa visione futuristica tecnocratica possano essere credibili. Nel nostro Paese non abbiamo la spinta tecnodigitale anglosassone o orientale; da un lato questo gap ci lascia indietro rispetto al resto del mondo e dall’altro ci può permettere di puntare meglio sul capitale occupazionale intellettuale e cognitivo, di cui siamo storicamente ricchi.
Posso anche accettare l’esperimento di software capaci di simulare scrittori, ricercatori, giornalisti, e non nascondo la mia curiosità, forse potranno aiutare a migliorare il prodotto o il processo produttivo, ma l’importante è che questi traguardi non portino a un’eliminazione totale della categoria, non ne capire il motivo (se non per business o politica), onestamente non ci credo proprio.
L’IA è anche un tema politico. Lo è sempre stato ma oggi lo è in modo specifico per il suo utilizzo in termini di sorveglianza e controllo. Se ne parla poco ma tutti possono vedere (guardare non basta) cosa sta succedendo in Cina. Non tanto per l’implementazione di sistemi di riconoscimento facciale ma per le strategie di utilizzo dell’IA per il futuro dominio del mondo. Altro aspetto da non sottovalutare, forse determinato dal controllo pervasivo reso possibile dal controllo di tutti i dati, è la complicità del cittadino, la sua partecipazione al progetto strategico nazionale rinunciando alla propria libertà. Un segnale di cosa potrebbe succedere domani anche da noi in termini di minori libertà e sparizione dei sistemi democratici che ci caratterizzano come occidentali? O un’esasperata reazione non motivata dal fatto che le IA possono comunque essere sviluppate e governate anche con finalità e scopi diversi?
Quoto la seconda ipotesi. Rendiamoci anche conto della differenza di regimi e di ideologie politiche tra la Cina e l’Italia, e tra ogni diverso Stato o Nazione che vorrà applicare l’AI per scopi politici e sociali.
Un altro punto di forza (almeno in questo discorso) dell’Italia è il sistema giuridico nazionale che già sta facendo sentire la propria voce in materia di privacy digitale, GDPR, violazione dell’identità ed etica digitale. Sono due versanti molti differenti: se in Cina si denunciano parole forti come dittatura e regime, non mi meraviglia l’uso distorto dell’AI per un rinforzo del potere controllante.
Come ho espresso in precedenza, tutto dipende dall’uso che se ne vuole fare. Anche i “semplici e divertenti” social network controllano la nostra vita, e ne siamo consapevoli, eppure non sembra che siano percepiti così pericolosi quanto l’AI.
Siamo dentro l’era digitale. La viviamo da sonnambuli felici dotati di strumenti che nessuno prima di noi ha avuto la fortuna di usare. Viviamo dentro realtà parallele, percepite tutte come reali, accettiamo la mediazione tecnologica in ogni attività: cognitiva, relazionale, emotiva, sociale, economica e politica. L’accettazione diffusa di questa mediazione riflette una difficoltà crescente nella comprensione umana della realtà e del mondo (ci pensano le macchine!) e della crescente incertezza. In che modo le macchine, le intelligenze artificiali potrebbero oggi svolgere un ruolo diverso nel rimettere l’uomo al centro, nel soddisfare il suo bisogno di comunità e relazioni reali, e nel superare l’incertezza?
Questa è una bella riflessione, mi piace, Carlo!
Questa può essere la sfida e la giusta visione di un sereno rapporto psicologico e sociale con le tecnologie e con il digitale.
Credo che “le macchine” stiano già aiutando l’uomo in questo, la differenza è parlarne e sottolineare il doppio-altro. Anche le videochiamate in chat durante la pandemia da Covid-19, in qualche modo hanno mantenuto le relazioni comunitarie, hanno umanizzato le aziende e le classi di lavoro, hanno gettato l’occhio cibernetico nelle case e nella quotidianità imprevista delle persone, con sorriso e ironia.
Personalmente credo che il bisogno di comunità e di relazioni reali non possa essere risolto dalle tecnologie, perché la dimensione è molto più interna e afferisce alla scena psicologica, sociale, terapeutica, psicoanalitica, la gente deve tornare a curare le proprie ferite interiori. La tecnologia e le macchine vengono dopo, aiutando poi a velocizzare, snellire, facilitare, performare un obiettivo in modo concreto. Mi spiego meglio: se le persone sono isolate o non costruiscono relazioni, non credo debba incolparsi la tecnologia, che può aggravare, sì, se viene usata senza una netiquette sana o un’educazione all’uso. La causa dei mali della società credo risieda sempre in questioni interiori più profonde. In teoria, tanta tecnologia, tante macchine, tanta AI può solo renderci la vita facile e funzionale, eppure perché c’è anche così tanta depressione, mal di vivere, noia, indifferenza, aridità, solitudine?
Un buon metodo? Quello che stai facendo tu con questo scambio di opinioni: interrogarsi, analizzarsi, domandarsi, mettersi in crisi. Finché si sentirà il “disagio” saremo capaci di scegliere “da che parte stare”, di decidere sul modo di vivere il progresso tecnologico e digitale. Io credo fortemente nella potenza della Legge della Natura scritta nella coscienza e nel DNA dell’uomo: per quanta tecnologia svilupperemo, sentiremo sempre la spinta a cercare l’altro nella relazione dal vivo.