Go down

L’Intelligenza Artificiale deve aiutare, non sostituire. Non vorrei mai arrendermi ciecamente alla visione logico formale che le macchine danno del mondo, ma prenderne spunto, ispirazione come farei col parere di qualsiasi altra persona esperta. Non vorrei mai un giudice robot, come quello sviluppato a Pudong, un distretto della città cinese di Shangai, che giudichi, ma che consigli. Il segreto è vedere l’AI come una estensione delle nostre capacità. Sarebbe da stupidi rifiutare il parere di un AI nell’identificazione dei carcinomi mammari, ma sarebbe ancora più stupido farne totale affidamento.


“L’avvento delle macchine ci costringe a una nuova educazione, autoeducazione; ci impone di reagire, riscoprendo le nostre potenzialità, la nostra forza, il nostro coraggio, la nostra saggezza. Dovremo imparare a scegliere. Dovremo scoprire in noi il senso della misura, arrivare a saper dire di no, a saper mettere limite all’invasione delle macchine nelle nostre vite, nei nostri stessi corpi” – Francesco Varanini 

Scrive Noah Harari che “quando la tecnologia ci permetterà di reingegnerizzare le menti umane, Homo sapiens scomparirà […] e un processo completamente nuovo avrà inizio”. La previsione può rivelarsi errata ma se si riflette sulla profondità dei cambiamenti in corso e il ruolo che la tecnologia sta avendo nel determinarli, si comprende che siamo in una fase di cambio di paradigma. Quando il nuovo emergerà noi potremmo non essere più umani. Cyborg, simbionti, semplici intelligenze artificiali più o meno ibridate, potenti, intelligenti e capaci di apprendere ma non più umane. 

Se questa prospettiva è verosimile è più che mai necessaria una riflessione approfondita, puntuale e critica di quanto sta avvenendo. Paradigmatico per questa riflessione è il tema dell’intelligenza artificiale che, più di altri, suggerisce bene il rischio e la sfida che tutto il genere umano si trova di fronte. Un rischio da molti sottovalutato e una sfida da molti accettata forse con eccessiva superficialità. Un tema che comunque è di interesse generale e vale la pena approfondire. E la riflessione deve essere fatta da tecnici, esperti, fautori della IA, ma senza mai dimenticarsi di essere esseri umani. 

In questo articolo proponiamo l’intervista che Carlo Mazzucchelli  ha condotto con Giulio Federico , ingegnere informatico e laureando in Artificial Intelligence and Data Engineering all’Università di Pisa. L'intervista è stata pubblicata originariamente sul portale SOLOTABLET  di Carlo Mazzucchelli 


 

Buongiorno, può raccontarci qualcosa di lei, della sua attività attuale, del suo interesse per l’intelligenza artificiale? Su quali progetti, idee imprenditoriali sta lavorando? Con quali finalità e obiettivi? A chi sono rivolti e in che ambiti sono implementati? 

Mi chiamo Giulio Federico. Sono un ingegnere informatico di 26 anni laurendo in Artificial Intelligence and Data Engineering all’Università di Pisa. Mi sono avvicinato a questo mondo quando a 12 anni vendetti tutto quello che un bambino poteva avere per comprare il mio primo vero personal computer. Non perché non potessi permettermelo, piuttosto volevo dimostrare ai miei che ci tenevo.

Mi affascinò subito molto il mondo dell’editing, i motori grafici e la modellazione 3D. A 14 anni creai e pubblicai il mio primo videogioco. Era curioso il legame tra questo mondo e quello nostro. Una serie di regole scritte in codice C# che reggevano la fisica del gioco, cosi come le regole dell’universo, scritte dal più figo dei programmatori, reggono il nostro di mondo.

Fu proprio questa idea, quella di poter creare, dare vita a qualsiasi cosa volessi che mi portò a intraprendere tale percorso. Eppure, dopo il conseguimento della laurea, dopo aver imparato a comprendere le macchine, desideravo imparare come queste potessero comprendere il mondo.

E’ allora che scelsi di indirizzare i miei studi verso l’AI e tutto ciò che lo circonda. Attualmente sono a fine di questo percorso, scrivendo una tesi su un campo particolare dell’AI, chiamato Brain Computer Interface, sperando quindi di poter comprendere come l’AI possa decodificare il cervello umano applicando i miei lavori in ambito medico. 

Ritiene utile una riflessione sull'era tecnologica e dell'informazione che stiamo sperimentando? 

Assolutamente si. Stiamo iniziando a vivere l’era di Wiser, quella dell’ Ubiquitous Computing, dove la tecnologia ormai fa da sfondo facendo parte in maniera silenziosa delle nostre vite. Tale era è infatti chiamata anche era della tecnologia calma. E’ importante fare una riflessione, perché è tramite la costante riflessione che ci si può destare, anche se a tratti, da questo corso silenzioso in cui incosciamente accettiamo tutto anche se non conosciamo nulla. 

Oggi tutti parlano di Intelligenza Artificiale ma probabilmente lo fanno senza una adeguata comprensione di cosa sia, delle sue diverse implementazioni, implicazioni ed effetti. Anche i media non favoriscono informazione, comprensione e conoscenza. Si confondono IA semplicemente reattive (Arend Hintze) come Deep Blue o AlphaGo, IA specializzate (quelle delle Auto), IA generali (AGI o Strong AI) capaci di simulare la mente umana e di elaborare loro rappresentazioni del mondo e delle persone, IA superiori (Superintelligenze) capaci di avere una coscienza di sé stesse fino a determinare la singolarità tecnologica. Lei che definizione da dell’intelligenza artificiale, quale pensa sia il suo stato di evoluzione corrente e quali possono essere quelle future? Pensa che sia possibile in futuro una Superintelligenza capace di condurci alla Singolarità nell’accezione di Kurzweil? 

Come detto da lei, esistono diverse categorie di AI, e forse proprio ciò porta ad una forte confusione su cosa alla fine essa sia. Spesso le persone associano l’AI ai robot, ma l’intelligenza artificiale non è solo quella che prova a dare coscienza (dovrei andarci piano con questo termine) ad una macchina, o quella che fa muovere e parlare un robot. Intelligenza artificiale è anche posizionare in maniera corretta un prodotto su un bancone del supermercato, oppure scegliere il prezzo di vendita migliore per i clienti che si hanno davanti, oppure ancora trovare il miglior compromesso/trade-off tra costo e performance nella produzione di un computer.

Le do la mia semplice definizione di intelligenza artificiale: 

l’AI è l’abilità di estrarre informazioni dagli input ricevuti e di elaborare una risposta sensata.” 

Non c’è altro, è tutto qui, in questa breve frase.

Le dimostrerò come questa definizione aderisce bene in ogni campo dell’AI. Nella robotica intelligente o cognitiva un robot può possedere per esempio delle videocamere, le quali registrano frame dopo frame la realtà che lo circonda. Le informazioni ricevute sono quindi i frame. Cosa fa l’AI? Per esempio potrebbe estrarre delle “feature” (caratteristiche distintive) da ogni singolo frame che riuscirà a classificare come “volto umano”.

A questo punto, comprendendo di avere davanti una persona, potrebbe rispondere con “Ciao”. Un altro esempio lo vediamo nel campo del Reinforcement Learning. In AlphaGo, come da lei citato, il software AI creato da DeepMind per un gioco da tavolo strategico, chiamato appunto “Go”, le informazioni ricevute sono quelle che il software (agente) acquisisce durante l’esplorazione (essenzialmente vari tentativi di mosse), e che poi elabora per estrarre informazioni (alla base utilizza il Monte Carlo Search Three) che alla fine forniranno come risposta la prossima mossa da fare. 

La mia idea sullo stato di evoluzione attuale dell’AI? Se l’AI avesse le sembianze di una persona, non gli darei più di 6 anni. Come ogni bambino molti sistemi AI necessitano di fare molta “esperienza” prima di imparare qualcosa, devono spesso essere “accompagnati per mano” durante il loro training e visionati quando danno le loro risposte.

Certo, qualcuno griderà “Ma sono più veloci di noi!”. E’ vero, diciamo allora che un AI è un bambino prodigio. Ma è pur sempre un bambino perché potenzialmente, cosa sarà in grado di fare (e ci riuscirà) è niente in confronto a quello che può fare oggi. Pensate che prima dell’avvento del Deep Learning (apprendimento profondo in italiano) l’intervento umano nell’allenare le macchine era inevitabile e molto invasivo in quanto si era costretti a selezionare a mano quali dati e quali feature di questi fossero buoni per l’algoritmo. Il Deep Learning ha quindi permesso alla macchina stessa di essere più autonoma a fare tali discriminazioni, ha permesso all’AI di fare un passo da gigante anche nel rivoluzionare i classici algoritmi, si pensi alla rete Yolo che nella classificazione e localizzazione di oggetti ha sostituito i classici algoritmi di Region Proposal con delle reti neurali ottenendo uno speed up incredibile da 45 secondi a soli 0.2 secondi in media nel classificare e localizzare oggetti in una immagine. Eppure, credetemi, le macchine sono ancora molto “lente” a causa delle risorse che possiedono.

Sarà proprio l’era del Quantum Computing che potrà far passare l’AI dalla fase infantile a quella adolescenziale. Siamo quindi ancora lontani dalla singolarità tecnologica di Ruy Kurzweil in cui il progresso tecnologico accelererà cosi tanto da creare AI superiori alle capacità umane. 

L’IA non è una novità, ha una storia datata anni ‘50. Mai però come in questi tempi si è sviluppata una reazione preoccupata a cosa essa possa determinare per il futuro del genere umano. Numerosi scienziati nel 2015 hanno sottoscritto un appello (per alcuni un modo ipocrita di lavarsi la coscienza) invitando a una regolamentazione dell’IA. Lei cosa ne pensa? È per lasciare libera ricerca e implementazione o per una regolamentazione della IA? Non crede che qualora le macchine intelligenti rubassero il comando agli esseri umani, per essi la vita avrebbe meno senso? A preoccupare dovrebbe essere la supremazia e la potenza delle macchine ma soprattutto l’irrilevanza della specie umana che potrebbe derivarne. O questa è semplicemente paura del futuro e delle ibridazioni che lo caratterizzeranno? Secondo il filosofo Benasayag le macchine sono fatte per funzionare bene, noi per funzionare (processi chimici, ecc.) ed esistere (vivere). Gli umani non possono essere ridotti a una raccolta di (Big) dati o al calcolo binario, hanno bisogno di complessità, di un corpo, di senso, di cultura, di esperienze, di sperimentare la negatività e il non sapere. Le macchine no e mai ne avranno necessità. O secondo lei si? Non crede che fare completo affidamento sulle macchine ci porti all’impotenza? 

Negli anni ’30 l’istituzione medica tedesca era ammirata come leader mondiale nella salute pubblica innovativa e nella ricerca medica. Innumerevoli furono le ricerche e le sperimentazioni di cui la medicina moderna ancora oggi giova. Ma il prezzo di tale innovazione lo sappiamo tutti. Migliaia di persone forzate a sottoporsi a esperimenti per poi morire. Eppure in quegli anni l’innovazione nel campo medico procedeva veloce. Cosa voglio dire con questo? Per raggiungere velocemente certe innovazioni, le regolamentazioni sono un limite. Anche nel campo dell’AI, certi progressi sono lenti proprio perché esistono regolamentazioni, per esempio sulla tutela dei dati personali.

Tutti vogliamo essere sicuri da eventuali crimini quando usciamo per strada, eppure a tutti spaventa il sistema di sorveglianza di massa della Cina che vuole controllare e monitorare i comportamenti di 1.4 miliardi di cinesi con lo scopo di prevenire i crimini senza alcun riguardo per la privacy. Con le regolamentazioni si quindi ha un grosso limite al progresso tecnologico. Questo è un dato di fatto. Però secondo la mia visione, nessun progresso esiste davvero se provoca un regresso dei diritti dell’uomo. Pertanto io sono per la regolamentazione, mi accontento di un lento progresso piuttosto che di un progresso di regressione. 

In una delle mie visioni utopistiche sul futuro vedo un mondo completamente dominato dall’AI. Per esempio, il settore primario potrebbe essere completamente automatizzato, non è cosi improbabile. Chi lo sa, magari l’intero settore primario sarà di proprietà dello Stato e i cittadini, che faranno tutt’altro di lavoro, potranno pagare per quelle materie o servizi. E se ogni lavoro fosse automatizzato?

Creare un mondo completamente automatizzato gestito dall’AI toglie ciò che oltre al cibo alimenta la vita di ogni uomo: il lavoro. Il lavoro, il desiderio, le passioni, il sognare, sono componenti che rendono l’uomo vivo. Senza quelli l’uomo si ridurrebbe ad una macchina alimentata dal solo cibo, come adesso un pc viene alimentato dalla corrente elettrica.

Questo mondo invertito in cui l’AI alimenta noi come noi adesso alimentiamo un pc è da evitare e sono sicuro mai succederà. 

Nel suo ultimo libro (Le cinque leggi bronzee dell’era digitale), Francesco Varanini rilegge a modo suo e in senso critico la storia dell’intelligenza artificiale. Lo fa attraverso la (ri)lettura di testi sulla IA di recente pubblicazione di autori come: Vinge, Tegmark, Kurzweil, Bostrom, Haraway, Yudkowsy, e altri. La critica è rivolta ai tecno-entusiasti che celebrando l’avvenire solare della IA si mettono, “con lo sguardo interessato del tecnico” dalla parte della macchina a spese dell’essere umano. È come se attraverso l’IA volessero innalzare l’uomo proprio mentre lo stanno sterilizzando rendendolo impotente, oltre che sottomesso e servile. Lei da che parte sta, del tecnico/esperto/tecnocrate o dell’essere umano o in una terra di mezzo? Non la preoccupa la potenza dell’IA, la sua crescita e diffusione (in Cina ad esempio con finalità di controllo e sorveglianza)? 

Non mi definisco né un Homo digitalis né un Homo sapiens nell’accezione di Varanini. Comprendo appieno il potere dell’Intelligenza Artificiale, estrema incarnazione dell’Illuminismo moderno. E’ forse proprio la profonda consapevolezza di come questa funzioni che mi fa stare in questa terra di mezzo. Penso che sia proprio la mancata consapevolezza di cosa essa sia che porta le persone a scegliere uno dei due lati estremi.

Come l’Homo digitalis considero il linguaggio dei numeri superiore a ogni altro linguaggio, l’unico che può davvero descrivere ogni entità dell’universo. Gli esseri umani sono tra le entità più complesse. Ogni singola emozione, pensiero può essere codificato e decodificato. Oggi è difficile, ma il limite è solo la tecnologia a disposizione. Ma come l’Homo sapiens penso sia fondamentale andare ogni giorno contro le Cinque Leggi Bronzee di cui parla Varanini, perché arrendersi a un codice straniero, preferire la macchina a se stessi, non essere più cittadini ma sudditi o tecnici, lasciare alla macchina il governo, volere essere macchina è ciò che più lede la libertà individuale e la convivenza sociale.

L’Intelligenza Artificiale deve aiutare, non sostituire. Non vorrei mai arrendermi ciecamente alla visione logico formale che le macchine danno del mondo, ma prenderne spunto, ispirazione come farei col parere di qualsiasi altra persona esperta. Non vorrei mai un giudice robot, come quello sviluppato a Pudong, un distretto della città cinese di Shangai, che giudichi, ma che consigli. Il segreto è vedere l’AI come una estensione delle nostre capacità. Sarebbe da stupidi rifiutare il parere di un AI nell’identificazione dei carcinomi mammari, ma sarebbe ancora più stupido farne totale affidamento.

Infine come l’Homo sapiens non guardo ancora e mai guarderò le macchine come degli oracoli. L’uomo e la natura che ci circonda sono oggi la più grande ispirazione a cui le macchine possono ambire. Non è un caso che i più importanti modelli AI come le reti neurali o gli algoritmi genetici sono rispettivamente una mera ispirazione e tentata imitazione del sistema nervoso umano e delle leggi di selezione, ricombinazione e mutazione formulate da Charles Darwin. 

Ai tempi del Coronavirus molti si stanno interrogando sulla sparizione del lavoro. Altri invece celebrano lo smartworking e le tecnologie che lo rendono possibile. Là dove lo smartworking non è possibile, fabbriche, impianti di produzione, ecc., si diffonde la robotica, l’automazione e l’IA. Il dibattito sulla sparizione del lavoro per colpa della tecnica (capacità di fare) / tecnologia (impiego della tecnica e della conoscenza per fare) non è nuovo, oggi si è fatto più urgente. Le IA non stanno sostituendo solo il lavoro manuale ma anche quello cognitivo. Le varie automazioni in corso stanno demolendo intere filiere produttive, modelli economici e organizzativi. Lei cosa ne pensa? L’IA, per come si sta manifestando oggi, creerà nuove opportunità di lavoro o sarà protagonista della distruzione di posti di lavoro più consistente della storia come molti paventano? Alcuni sostengono che il futuro sarà popolato di nuovi lavoratori, tecnici che danno forma a nuove macchine (software e hardware), le fanno funzionare e le curano, tecnici che formano altri tecnici e ad altre forme di lavoro associate al funzionamento delle macchine tecnologiche. Sarà veramente così? E se anche fosse non sarebbe per tutti o per molti! Si verrebbero a creare delle élite ma molti perderebbero comunque il lavoro, l’unica cosa che per un individuo serva a essere sé stesso. Nessuna preoccupazione o riflessione in merito? 

Mio padre mi raccontava che ai suoi tempi, nel piccolo paese dove viveva, prima dell’avvento dei frigorigeri c’erano i venditori di ghiaggio che portavano in grossi contenitori isolanti fatti di zinco il ghiaccio proveniente dai laghi e ghiacciai. In gran Bretagna, prima della sveglia quando gli operai dovevano essere svegliati per andare a lavorare, un uomo con un bastone andava casa per casa a svegliare le persone che si erano prenotate per tale servizio. O ancora, prima dell’avvento delle ferrovie, i tronchi di legno venivano trasportati lungo il corso dei fiumi. 

In nessuno di questi 3 lavori l’intelligenza artificiale ha avuto alcun ruolo nel farli sparire. E’ il progresso che porta il nuovo a rimpiazzare il vecchio, e oggi l’AI è solo una parte di questo progresso. Purtroppo oggi, tale progresso è sentito maggiormente solo perché sta avvenendo cosi rapidamento (come mai nel passato) da coinvolgere anche i cosidetti immigrati digitali che hanno poca voglia ma soprattutto possibilità di adattarsi. Quando tali generazioni spariranno, quelli che oggi chiamamiamo nativi digitali non sentiranno la stessa pressione, ne sperimenteranno altre, sicuramente inferiori. Il nuovo sostituisce il vecchio.

Chi l’avrebbe mai detto che nel futuro ci potrebbe essere lavoro anche nel Metaverso. Pertanto credo che oggi l’AI sia la falce con cui il progresso miete il vecchio, come un tempo, nel Settecento, lo era stata la macchina a vapore e carbone, o nell’Ottocento l’elettricità e il petrolio. Ma col vecchio ci sarà sempre qualcosa di nuovo che nascerà, nuove opportunità, nuovi modelli di Business. Sicuramente, l’unica nota negativa, è che che il nuovo saprà molto di ragione, logica matematica, lasciando poco spazio a lavori più umanistici, cosa che per mè è una perdita. 

L’IA è anche un tema politico. Lo è sempre stato ma oggi lo è in modo specifico per il suo utilizzo in termini di sorveglianza e controllo. Se ne parla poco ma tutti possono vedere (guardare non basta) cosa sta succedendo in Cina. Non tanto per l’implementazione di sistemi di riconoscimento facciale ma per le strategie di utilizzo dell’IA per il futuro dominio del mondo. Altro aspetto da non sottovalutare, forse determinato dal controllo pervasivo reso possibile dal controllo di tutti i dati, è la complicità del cittadino, la sua partecipazione al progetto strategico nazionale rinunciando alla propria libertà. Un segnale di cosa potrebbe succedere domani anche da noi in termini di minori libertà e sparizione dei sistemi democratici che ci caratterizzano come occidentali? O un’esasperata reazione non motivata dal fatto che le IA possono comunque essere sviluppate e governate anche con finalità e scopi diversi? 

Oggi giorno in un solo secondo si inviano circa 9000 tweet, si caricano 1000 foto su Instagram, si visualizzano 83000 video su youtube, si inviano più di 2 milioni di email, si avviano più di 4000 chiamate su Skype. Annesh Aneesh, un professore indiano di sociologia dell’Università del Wisconsin-Milwaukee, ha parlato di Algocrazia, ossia di tre modelli con cui i governi utilizzano l’AI: il modello gestionale in cui l’AI viene utilizzato per gestire realtà complesse (es. Smart cities o infrastrutture critiche); modello gestionale e di controllo in cui l’AI viene utiizzata per conoscerci, osservarci e controllarci; infine abbiamo il modello preventivo in cui l’AI esonera l’umano dal commettere errori sostituendolo con gli algoritmi.

Per quanto noi tutti non diamo tali nomi a questi modelli, siamo tutti a conoscenza della loro esistenza. Per esempio la famosa Stellar Wind, un programma per la sorveglianza dei cittadini americani e non, creato dall’Agenzia per la Sicurezza Nazionale degli Stati Uniti, o altri programmi che hanno accesso ai server della Google, Apple, Facebook e altri giganti del web per raccogliere informazioni personali sulle opinioni politiche, orientamenti sessuali, culturali, musicali, di consumo degli utenti. Oppure, senza andare troppo lontano, sappiamo degli scandali di Facebook, di Whats App eppure continuiamo ad utilizzarli.

Ma tutto questo è a conoscenza di tutti. Pertanto non penso che i cittadini, noi tutti, siamo complici passivi di questa realtà. La verità è che non ci frega nulla. Ci lamentiamo del controllo, ma vogliamo essere controllati. Ci lamentiamo di Facebook, e lo facciamo con un post su Facebook. Ci lamentiamo di Whats App e lo facciamo utilizzando la stessa app per inviare catene a tutti i nostri contatti. Ci lamentiamo che il Web ci conosce fin troppo, ma premiamo su “accetta i cookie” in una frazione di secondo senza curarci dell’azione fatta.

Il governo, la politica non controlla le persone con l’Intelligenza Artificiale, ma con un mezzo che non ha storia: l’ignoranza. 

Siamo dentro l’era digitale. La viviamo da sonnambuli felici dotati di strumenti che nessuno prima di noi ha avuto la fortuna di usare. Viviamo dentro realtà parallele, percepite tutte come reali, accettiamo la mediazione tecnologica in ogni attività: cognitiva, relazionale, emotiva, sociale, economica e politica. L’accettazione diffusa di questa mediazione riflette una difficoltà crescente nella comprensione umana della realtà e del mondo (ci pensano le macchine!) e della crescente incertezza. In che modo le macchine, le intelligenze artificiali potrebbero oggi svolgere un ruolo diverso nel rimettere l’uomo al centro, nel soddisfare il suo bisogno di comunità e relazioni reali, e nel superare l’incertezza? 

Per quanto credo che nel futuro le macchine non avranno più bisogno dell’intervento umano, e sarà allora che l’incertezza e la difficoltà di cui lei accenna aumenteranno, spero che si realizzi la mia visione, quella in cui l’Intelligenza Artificiale affianchi senza sostituire l’uomo, e viceversa. E’ proprio l’AI la soluzione e non la causa di questa crescente incertezza e di questa passiva accettazione della realtà mediata dalle macchine.

Ma come dico sempre, dare una pistola ad un uomo per difendersi non vuol dire che non la userà per attaccare. Con questo intendo dire che ogni cosa non è solo nera o bianca, ma entrambe. Possiamo utilizzare l’AI nero per allontanare l’uomo dal centro e quindi renderlo più infelice usando le macchine al suo posto, soddisfare meno il bisogno di relazionarsi usando la realtà virtuale, mostrargli una realtà corrotta del mondo, oppure, la parte bianca, per rimettere l’uomo al centro, utilizzando l’AI per affiancarlo, nell’aiutarlo la dove non può arrivare, superando insieme limiti che da soli non si potrebbero superare (es. in medicina), analizzando in maniera genuina i suoi dati per meglio inserirlo nella comunità e nelle relazioni sociali. Le stesse paure che si hanno per l’Intelligenza Artificiale si avevano e si hanno tuttora per le armi, eppure eccoci qui. L’ascesa dell’AI è inevitabile. Spetta a noi combattere per la sua parte bianca


Carlo Mazzucchelli

Carlo Mazzucchelli / ⛵⛵ Leggo, scrivo, viaggio, dialogo e mi ritengo fortunato nel poterlo fare – STULTIFERANAVIS Co-founder

c.mazzucchelli@libero.it http://www.solotablet.it