Go down

Le macchine sono un mezzo, come il bastone, la pietra o il jet supersonico, per consentirci di raggiungere i nostri obiettivi. Così come un direttore d’orchestra non è irrilevante solo perché i musicisti suonano il loro rispettivo strumento meglio di quanto lui mai saprebbe fare, anche la specie umana non perderà il suo ruolo fintanto che sarà in grado di dirigere gli strumenti che ha creato. Gli esseri umani devono prepararsi a un futuro da direttori d’orchestra, senza però perdere quell’insieme di conoscenze e competenze che ci potranno consentire di rimediare velocemente qualora uno degli strumenti iniziasse a essere stonato.


"Il termine cui sono sempre ricorso per criticare le tradizionali architetture informatiche è FRAGILE. Si spezzano anziché piegarsi. anche se l'errore riguarda un solo bit. Se cercate un'alternativa alla fragilità, guardate la vita. Considerrate come funziona l'evoluzione naturale. Talvolta i nostri geni somigliano un pò al software; capita che un'unica mutazione si riveli fatale." – Jerome Lanier

Scrive Noah Harari che “quando la tecnologia ci permetterà di reingegnerizzare le menti umane, Homo sapiens scomparirà […] e un processo completamente nuovo avrà inizio”. La previsione può rivelarsi errata ma se si riflette sulla profondità dei cambiamenti in corso e il ruolo che la tecnologia sta avendo nel determinarli, si comprende che siamo in una fase di cambio di paradigma. Quando il nuovo emergerà noi potremmo non essere più umani. Cyborgsimbionti, semplici intelligenze artificiali più o meno ibridate, potenti, intelligenti e capaci di apprendere ma non più umane.

Se questa prospettiva è verosimile è più che mai necessaria una riflessione approfondita, puntuale e critica di quanto sta avvenendo. Paradigmatico per questa riflessione è il tema dell’intelligenza artificiale che, più di altri, suggerisce bene il rischio e la sfida che tutto il genere umano si trova di fronte. Un rischio da molti sottovalutato e una sfida da molti accettata forse con eccessiva superficialità. Un tema che comunque è di interesse generale e vale la pena approfondire. E la riflessione deve essere fatta da tecnici, esperti, fautori della IA, ma senza mai dimenticarsi di essere esseri umani.

In questo articolo proponiamo l’intervista che Carlo Mazzucchelli  ha condotto con Luca Sambucci, specialista di intelligenza artificiale e veterano della cybersecurity, pubblicata originariamente sul portale SOLOTABLET.


Buongiorno, può raccontarci qualcosa di lei, della sua attività attuale, del suo interesse per l’intelligenza artificiale? Ritiene utile una riflessione sull'era tecnologica e dell'informazione che stiamo sperimentando? Su quali progetti, idee imprenditoriali sta lavorando? Con quali finalità e obiettivi? A chi sono rivolti e in che ambiti sono implementati? 

Provengo dal mondo della cybersecurity, un mondo che ho visto nascere e svilupparsi fino ai livelli di oggi. Sono stato uno dei primissimi, già come teenager alla fine degli anni Ottanta, a occuparmi della nascente questione della sicurezza informatica. I primi virus li ho analizzati nel biennio 1988-1989. L’intelligenza artificiale era sempre una passione latente, ricordo che ero ventenne negli anni Novanta quando leggevo testi sulle reti neurali. Ma a causa della scarsità di implementazioni l’intelligenza artificiale nella mia vita è sempre stata relegata a hobby. 

Qualche anno fa però ho iniziato a immergermi nelle nuove applicazioni e nelle nuove scoperte AI che venivano pubblicate. Era come mettere nuovo carburante in un motore che non si era mai spento. 

Come già successe per la cybersecurity, anche per l’intelligenza artificiale ho iniziato producendo. Io sono una persona che deve darsi da fare per essere soddisfatto: negli anni 1992-1993 – avevo 16/17 anni – ho creato un software per la condivisione di informazioni sui virus informatici, InfoVir (di cui ora ho perso tutto, anche i sorgenti), elencando i modi per riconoscerli e rimuoverli dai PC. Nella seconda metà degli anni Novanta collaboravo con riviste di settore, prima fra tutte PC Professionale, per divulgare le ultime informazioni sul malware. Nel 1995 creai le prime pagine web, ospitato sul server dell’università, che informavano su virus e antivirus. Nel 2005 creai quello che penso sia stato il primo blog italiano interamente dedicato alla security. 

Anche per l’intelligenza artificiale ho iniziato cercando di dare qualcosa, anziché prendere. Nella prima metà del 2019 ho aperto www.Notizie.ai, ben presto diventato il blog italiano sull’intelligenza artificiale più visitato. Recentemente gli ho affiancato www.Ecosistema.ai, un sito che ha l’ambizione di concentrare informazioni e dati che possano aiutare i ricercatori, gli studenti e gli appassionati italiani di AI. A oggi contiene una mappa dei corsi di laurea connessi all’AI erogati dalle università italiane e quello che dovrebbe essere il più completo elenco di eventi sull’AI in giro per il mondo. Domani avrà molti più moduli per aiutare gli studenti e i ricercatori a fare il loro lavoro. 

Ho infine un progetto imprenditoriale, sempre collegato all’intelligenza artificiale, che tuttavia è ancora coperto da riservatezza e che sarà lanciato nel 2021. 

 

Oggi tutti parlano di Intelligenza Artificiale ma probabilmente lo fanno senza una adeguata comprensione di cosa sia, delle sue diverse implementazioni, implicazioni ed effetti. Anche i media non favoriscono informazione, comprensione e conoscenza. Si confondono IA semplicemente reattive (Arend Hintze) come Deep Blue o AlphaGo, IA specializzate (quelle delle Auto), IA generali (AGI o Strong AI) capaci di simulare la mente umana e di elaborare loro rappresentazioni del mondo e delle persone, IA superiori (Superintelligenze) capaci di avere una coscienza di sé stesse fino a determinare la singolarità tecnologica. Lei che definizione da dell’intelligenza artificiale, quale pensa sia il suo stato di evoluzione corrente e quali possono essere quelle future? Pensa che sia possibile in futuro una Superintelligenza capace di condurci alla Singolarità nell’accezione di Kurzweil? 

La definizione di intelligenza artificiale è un argomento dove si sono persi molti pensatori di ieri e di oggi. Sono d’accordo con John McCarthy quando diceva che non vi può essere una definizione di intelligenza artificiale che possa trascendere dalla definizione di intelligenza umana. E quando cerchiamo di definire la nostra intelligenza, quella di esseri umani, finiamo immancabilmente per scontrarci con i nostri stessi limiti di comprensione, non riuscendo a definirla nella sua interezza e nei suoi molteplici aspetti. 

Inizialmente, negli anni Cinquanta, Sessanta e Settanta, ci si accontentava di una scorciatoia che affermava che se una macchina sembrava intelligente, allora quella era intelligenza artificiale. Una pioniera dell’IA italiana, Luigia Carlucci Aiello, cristallizzava questa scuola di pensiero commentando che in quel modo – e cito – non si dovevano “fare considerazioni su processi mentali o attributi psichici, né tanto meno convenire su una definizione precisa del concetto di intelligenza.” Ci si accontentava insomma del risultato percepito. 

In anni più recenti si è diventati pragmatici, segno forse che l’intelligenza artificiale ha iniziato ad approdare sulle scrivanie dei manager, la definizione “è intelligente se sembra intelligente” non reggeva più. Per questo motivo si è andati più a fondo, forti anche di decenni di ricerca in cui si ha avuto il tempo per “prendere le misure” alla disciplina. Oggi si è in grado di elencare con maggiore sicurezza i processi e i risultati che vogliamo vedere per poter dare a un elemento meccanico la palma di “intelligente”. Una testimonianza esemplare è la definizione dello High-Level Expert Group on Artificial Intelligence (HLEG-AI) della Commissione Europea, che nel 2018 ha dato la seguente definizione di intelligenza artificiale: "I sistemi di intelligenza artificiale (IA) sono sistemi software (ed eventualmente anche hardware) progettati dall'uomo che, dato un obiettivo complesso, agiscono nella dimensione fisica o digitale percependo l'ambiente che li circonda attraverso l'acquisizione di dati, interpretando i dati strutturati o non strutturati raccolti, ragionando sulle conoscenze o elaborando le informazioni derivate da questi dati e decidendo la migliore o le migliori azioni da intraprendere per raggiungere l'obiettivo prefissato. Sistemi di Intelligenza Artificiale possono utilizzare regole simboliche o imparare un modello numerico, e possono anche adattare il loro comportamento analizzando come l'ambiente è stato influenzato dalle loro azioni precedenti.

Una definizione che trasuda razionalità, praticità, il raggiungimento degli obiettivi prefissati così caro alla nostra realtà fatta di obblighi, di responsabilità, di traguardi. Non è certo una definizione che comprende – che so – un sistema AI che decide di non fare nulla e guardare le nuvole nel cielo. 

Si tratta di una definizione perfetta per l’intelligenza artificiale “stretta”, a volte impropriamente detta “debole”. È una definizione però che non contempla l’intelligenza artificiale progettata da un altro sistema di intelligenza artificiale, né un sistema di intelligenza artificiale che non abbia obiettivi prefissati. Non arriva a prevedere che ci possano essere, in futuro, sistemi di intelligenza artificiale che abbiano una coscienza, che siano senzienti, che desiderino qualcosa senza che questo sia stato programmato a priori. 

Non lo fa perché tale tipologia di AI, forte o generale, è così improbabile dal realizzarsi da essere poco pratico parlarne in testi seriosi e ufficiali. 

Per quello che mi riguarda, e credo si possa intuire da quanto scritto finora, per quanto trovi affascinante riflettere sulla possibilità dell’intelligenza artificiale generale, considero l’esercizio tanto utile quanto il ponderare se esistano o meno esseri intelligenti su qualche altro pianeta. Si tratta di un argomento futuristico che non ha rilevanza oggi, non lo avrà domani e neanche fra dieci anni. Ma se come astrobiologo non valgo nulla, almeno sul piano dell’AI ho qualche cognizione in più, e posso dire con relativa certezza che siamo ancora lontanissimi dal realizzare i passaggi necessari che potrebbero un giorno condurci allo sviluppo dell’intelligenza artificiale generale. L’AGI non si intravede neanche all’orizzonte.  

 

L’IA non è una novità, ha una storia datata anni ‘50. Mai però come in questi tempi si è sviluppata una reazione preoccupata a cosa essa possa determinare per il futuro del genere umano. Numerosi scienziati nel 2015 hanno sottoscritto un appello (per alcuni un modo ipocrita di lavarsi la coscienza) invitando a una regolamentazione dell’IA. Lei cosa ne pensa? È per lasciare libera ricerca e implementazione o per una regolamentazione della IA? Non crede che qualora le macchine intelligenti rubassero il comando agli esseri umani, per essi la vita avrebbe meno senso? A preoccupare dovrebbe essere la supremazia e la potenza delle macchine ma soprattutto l’irrilevanza della specie umana che potrebbe derivarne. O questa è semplicemente paura del futuro e delle ibridazioni che lo caratterizzeranno? Secondo il filosofo Benasayag le macchine sono fatte per funzionare bene, noi per funzionare (processi chimici, ecc.) ed esistere (vivere). Gli umani non possono essere ridotti a una raccolta di (Big) dati o al calcolo binario, hanno bisogno di complessità, di un corpo, di senso, di cultura, di esperienze, di sperimentare la negatività e il non sapere. Le macchine no e mai ne avranno necessità. O secondo lei si? Non crede che fare completo affidamento sulle macchine ci porti all’impotenza? 

Ovunque vi siano interazioni fra esseri umani – anche se mediate dalle macchine – c’è bisogno di regole. La regolamentazione non serve tanto a limitare la superintelligenza delle macchine, quanto a consentire a noi umani di conoscere le regole del gioco. 

Le macchine sono un mezzo, come il bastone, la pietra o il jet supersonico, per consentirci di raggiungere i nostri obiettivi. Così come un direttore d’orchestra non è irrilevante solo perché i musicisti suonano il loro rispettivo strumento meglio di quanto lui mai saprebbe fare, anche la specie umana non perderà il suo ruolo fintanto che sarà in grado di dirigere gli strumenti che ha creato. Gli esseri umani devono prepararsi a un futuro da direttori d’orchestra, senza però perdere quell’insieme di conoscenze e competenze che ci potranno consentire di rimediare velocemente qualora uno degli strumenti iniziasse a essere stonato. 

Nel suo ultimo libro (Le cinque leggi bronzee dell’era digitale), Francesco Varanini rilegge a modo suo e in senso critico la storia dell’intelligenza artificiale. Lo fa attraverso la (ri)lettura di testi sulla IA di recente pubblicazione di autori come: Vinge, Tegmark, Kurzweil, Bostrom, Haraway, Yudkowsy, e altri. La critica è rivolta ai tecno-entusiasti che celebrando l’avvenire solare della IA si mettono, “con lo sguardo interessato del tecnico” dalla parte della macchina a spese dell’essere umano. È come se attraverso l’IA volessero innalzare l’uomo proprio mentre lo stanno sterilizzando rendendolo impotente, oltre che sottomesso e servile. Lei da che parte sta, del tecnico/esperto/tecnocrate o dell’essere umano o in una terra di mezzo? Non la preoccupa la potenza dell’IA, la sua crescita e diffusione (in Cina ad esempio con finalità di controllo e sorveglianza)? 

Il tecno-soluzionismo non solo non risolve i problemi, ma ne crea di nuovi. L’approccio che Lei descrive nasconde spesso una voglia di semplificazione della realtà, che culmina con il deus ex machina che risolve la situazione. Già da tempo immemore molte persone si affidano agli astri, agli dèi, o magari anche un potente padrone umano (re, imperatore, reggente o papa a seconda dei casi) affinché intervengano nelle faccende umane per raddrizzare i torti e dare soluzione ai problemi. Anche oggi in tanti guardano alla tecnologia con lo stesso occhio speranzoso. 

Si tratta di un desiderio in sé molto umano e comprensibile, che ci riporta a quel momento della nostra vita – l’infanzia – quando qualcuno risolveva i problemi per noi. Molti, moltissimi non hanno mai lasciato quella fase, e ancora oggi desiderano unicamente andare avanti con la propria giornata, lasciando che i problemi piccoli o grandi siano risolti da qualche entità con la soluzione in tasca, che si chiami Zeus, imperatore o intelligenza artificiale. 

Interpretare il rapporto fra esseri umani e intelligenza artificiale come una separazione fra due fazioni contendenti secondo me è fuori dalla realtà. Sarebbe come – e semplifico al massimo per illustrare l’assurdità del concetto – vedere opposte fazioni nel rapporto tra uomini e cacciaviti (tifando magari per i cacciaviti). 

L’intelligenza artificiale è uno strumento che serve a potenziare le capacità degli esseri umani, non sostituirle. 

 

Ai tempi del Coronavirus molti si stanno interrogando sulla sparizione del lavoro. Altri invece celebrano lo smartworking e le tecnologie che lo rendono possibile. Là dove lo smartworking non è possibile, fabbriche, impianti di produzione, ecc., si diffonde la robotica, l’automazione e l’IA. Il dibattito sulla sparizione del lavoro per colpa della tecnica (capacità di fare) / tecnologia (impiego della tecnica e della conoscenza per fare) non è nuovo, oggi si è fatto più urgente. Le IA non stanno sostituendo solo il lavoro manuale ma anche quello cognitivo. Le varie automazioni in corso stanno demolendo intere filiere produttive, modelli economici e organizzativi. Lei cosa ne pensa? L’IA, per come si sta manifestando oggi, creerà nuove opportunità di lavoro o sarà protagonista della distruzione di posti di lavoro più consistente della storia come molti paventano? Alcuni sostengono che il futuro sarà popolato di nuovi lavoratori, tecnici che danno forma a nuove macchine (software e hardware), le fanno funzionare e le curano, tecnici che formano altri tecnici e ad altre forme di lavoro associate al funzionamento delle macchine tecnologiche. Sarà veramente così? E se anche fosse non sarebbe per tutti o per molti! Si verrebbero a creare delle élite ma molti perderebbero comunque il lavoro, l’unica cosa che per un individuo serva a essere sé stesso. Nessuna preoccupazione o riflessione in merito? 

Poiché l’intelligenza artificiale in quanto strumento si dimostra utile per risolvere molti problemi, dovremo fare attenzione a non perdere le competenze degli esseri umani che, coadiuvati in alcuni processi dalle macchine, rischiano di scordare come si portano a termine quei processi. Un medico che usa un algoritmo per effettuare una diagnosi dovrà sempre essere in grado di fare la stessa cosa senza macchine, perché altrimenti non sarà più in grado di valutare se la macchina sta facendo bene il suo lavoro. Un commercialista, del resto, non smette di fare calcoli a mente solo perché a studio usa una calcolatrice. L’automazione portata dall’intelligenza artificiale deve servire solo a far guadagnare tempo alle persone, e non far perdere loro le competenze professionali. 

Sulla perdita dei posti di lavoro io – come molti – vedo nel quadro generale più un trasferimento di occupazioni anziché la loro dissoluzione, con la cessazione di alcuni ruoli e la comparsa di altri. Come spesso accade però non sono i lavoratori individuali a cambiare di ruolo, bensì nuovi lavoratori che scalzano i lavoratori attuali. Ad esempio, con i camion a guida autonoma avremo meno autisti di tir e più ingegneri meccanici, ma i posti di ingegnere non verranno offerti agli autisti licenziati. Per questo motivo vi è bisogno di tutelare le fasce più deboli che soffriranno questo cambio di passo, senza però arroccarsi nel mantenere lavori obsoleti solo per consentire a tali lavoratori di tenere il posto, bensì implementando delle politiche sociali serie ed efficaci la cui ideazione, tuttavia, è molto al di fuori delle mie competenze. 

 

L’IA è anche un tema politico. Lo è sempre stato ma oggi lo è in modo specifico per il suo utilizzo in termini di sorveglianza e controllo. Se ne parla poco ma tutti possono vedere (non guardare) cosa sta succedendo in Cina. Non tanto per l’implementazione di sistemi di riconoscimento facciale ma per le strategie di utilizzo dell’IA per il futuro dominio del mondo. Altro aspetto da non sottovalutare, forse determinato dal controllo pervasivo reso possibile dal controllo di tutti i dati, è la complicità del cittadino, la sua partecipazione al progetto strategico nazionale rinunciando alla propria libertà. Un segnale di cosa potrebbe succedere domani anche da noi in termini di minori libertà e sparizione dei sistemi democratici che ci caratterizzano come occidentali? O un’esasperata reazione non motivata dal fatto che le IA possono comunque essere sviluppate e governate anche con finalità e scopi diversi? 

Ricordo ancora come nei primissimi anni Novanta si parlava di Internet come della restituzione del potere ai cittadini. In realtà come tutti gli strumenti anche l’AI può essere abusata dai governi, che possono metterla all’interno del loro arsenale di tecnologie repressive come succede già in certi Paesi, e non solo asiatici. 

Quello che possiamo fare è tenere sempre alta l’attenzione della società civile. L’etica dell’intelligenza artificiale non è solo uno slogan, è uno dei modi che abbiamo per controllare l’utilizzo delle nuove tecnologie affinché non siano abusate da governi repressivi o semplici governanti ignoranti in materia.  

Siamo dentro l’era digitale. La viviamo da sonnambuli felici dotati di strumenti che nessuno prima di noi ha avuto la fortuna di usare. Viviamo dentro realtà parallele, percepite tutte come reali, accettiamo la mediazione tecnologica in ogni attività: cognitiva, relazionale, emotiva, sociale, economica e politica. L’accettazione diffusa di questa mediazione riflette una difficoltà crescente nella comprensione umana della realtà e del mondo (ci pensano le macchine!) e della crescente incertezza. In che modo le macchine, le intelligenze artificiali potrebbero oggi svolgere un ruolo diverso nel rimettere l’uomo al centro, nel soddisfare il suo bisogno di comunità e relazioni reali, e nel superare l’incertezza? 

So che mi sto ripetendo, ma basterebbe ricordarsi che l’intelligenza artificiale è uno strumento nelle mani dell’uomo. Una volta ben presente questo concetto, capiremo che non è l’intelligenza artificiale che soddisfa i bisogni di comunità delle persone, così come non sono le automobili a farci incontrare i nostri amici al ristorante. Siamo noi che, usando l’automobile, ci rechiamo al ristorante per incontrarli. Se con l’intelligenza artificiale riesco a organizzare meglio la mia rubrica, magari aggiungendo automaticamente tag di interesse nelle schede dei miei contatti, ecco che avrò modo di migliorare la relazione con le persone semplicemente “ricordandomi” dei loro ambiti di interesse, o magari individuando persone da introdurre per migliorare i loro rispettivi network. Sono sempre io che faccio tutto, l’AI non è altro che un ausilio e una semplificazione alla gestione dei rapporti con centinaia – se non migliaia – di persone.

È anche vero che spesso l’intelligenza artificiale viene abusata per illuderci di stare avendo rapporti con un altro essere umano, mentre in realtà interagiamo con un software. Pensiamo ai messaggi di spam, di catfish, o ai videogiochi online che popolano i loro server di finti personaggi giocanti. L’assenza di contatto fisico semplifica l’inganno, e se oggi è ancora possibile notare la differenza per via di certe idiosincrasie ed errori da parte dei finti-umani, nel prossimo futuro questo non sarà più possibile. 

Carlo Mazzucchelli

Carlo Mazzucchelli / ⛵⛵ Leggo, scrivo, viaggio, dialogo e mi ritengo fortunato nel poterlo fare – STULTIFERANAVIS Co-founder

c.mazzucchelli@libero.it http://www.solotablet.it