SÌ o NO: stiamo scegliendo davvero?

Quando esprimiamo un SÌ o un NO, pensiamo di compiere una scelta autonoma. Ma oggi quell’atto nasce sempre più all’interno di un contesto informativo modellato dall’intelligenza artificiale. Qui provo a vedere come gli algoritmi non influenzino solo i contenuti, ma il modo stesso in cui le opinioni prendono forma.

Di cosa stai parlando quando parli di AI?

Frequento il discorso sull'intelligenza artificiale da un po'. Lo frequento per lavoro, per interesse, per una forma di inquietudine che non si è ancora trasformata in abitudine. Leggo, ascolto, partecipo a convegni, seguo i dibattiti su LinkedIn, che è il luogo dove il discorso sull'AI raggiunge la sua forma più pura di rumore. E ho una sensazione che non riesco a togliermi di dosso: che stiamo parlando della stessa cosa senza parlare della stessa cosa.

Il lavoro rubato, secondo Asimov. Una profezia sul declassamento umano

Molto prima dell’IA generativa, Isaac Asimov aveva già raccontato il trauma sociale della sostituzione del lavoro umano con le macchine umanoidi. In Abissi d’acciaio i robot sostituiscono dapprima il lavoro di commessi e fattorini, ma la loro diffusione minaccia presto di soffiare il posto anche a poliziotti, impiegati, colletti sempre più bianchi. Ci sono proteste, declassamenti, folle inferocite e uomini che capiscono di poter essere rimpiazzati non solo nella forza lavoro, ma anche nel giudizio, nelle competenze, nelle funzioni mentali. Ma il bersaglio vero del romanzo non è la macchina in sé. Asimov mostra con lucidità sorprendente che una società senza protezioni trasforma ogni progresso in una minaccia, e che il vero incubo non è la macchina che lavora meglio dell’uomo, ma il sistema che rende quella superiorità una condanna per chi resta indietro.

Intervista ImPossibile a Niccolò Machiavelli (IIP #26)

L’AI e il potere Oggi, ogni tecnologia che organizza informazioni, orienta decisioni e modella il comportamento collettivo diventa inevitabilmente anche una tecnologia di governo. Per capire cosa stia accadendo, può essere utile tornare a uno dei pensatori che più di altri ha analizzato la politica nella sua dimensione concreta. Niccolò Machiavelli è considerato il fondatore della scienza politica moderna. Nel Principe e nei Discorsi sopra la prima deca di Tito Livio osserva la politica non come un sistema di principi morali, ma come “verità effettuale delle cose”, un campo di forze nel quale individui, istituzioni e popoli competono per conquistare e mantenere il potere.

La delega cognitiva

Per secoli la tecnologia ha esteso le nostre capacità fisiche. Le macchine hanno sollevato pesi, accelerato movimenti, moltiplicato la forza del lavoro umano. Con l’intelligenza artificiale sta accadendo qualcosa di diverso. Non stiamo più delegando soltanto il fare. Stiamo iniziando, lentamente e quasi senza accorgercene, a delegare parti del nostro processo cognitivo: la sintesi, l’analisi, la scrittura, perfino le prime forme di giudizio.

Stultitia e intelligenza artificiale

Francesco Varanini ha scritto un articolo che ci invita a riflettere e condividere un percorso. Si intitola Stultitia. Invita chi è sulla Nave a ragionare insieme su cosa abbiamo in comune, chi siamo, dove stiamo andando. L'ho letto. E mentre leggevo è successa una cosa che succede sempre con le buone letture: alcune cose risuonavano come già note, altre aprivano domande. Non è una questione di sapere o non sapere — è la condizione normale di chi legge qualcuno che pensa. Una buona lettura non conferma: apre. Mette in moto. Genera il bisogno di cercare. Allora ho cercato. E su come ho cercato tornerò nel corso dell'articolo.

Chi è l'esperto di intelligenza artificiale?

Cosa bisogna sapere per essere esperti di intelligenza artificiale? Il primo istinto è rispondere per accumulo: bisogna saper usare il computer, poi i programmi di base, poi gli strumenti più avanzati, poi quelli specifici del proprio settore, e così via, salendo una scala di competenze tecniche sempre più sofisticate. È la logica del corso di aggiornamento, del tutorial, del manuale. Una logica che ha senso quando il problema è imparare uno strumento nuovo. Ma la questione non è imparare strumenti nuovi.

Corpo, genere, algoritmi (POV #26)

Judith Butler vs Kate Crawford: Chi decide cosa siamo? Nel contesto contemporaneo dominato dall’intelligenza artificiale, anche il corpo è diventato un dato. Le tecnologie di riconoscimento facciale, i modelli predittivi di genere, le metriche biometriche: tutto sembra riducibile a parametri misurabili. Sembra che tutto possa essere tradotto in parametro. Eppure, anche in questo caso, ci troviamo di fronte ad un problema politico perché ciò che viene misurato dipende dalle categorie con cui decidiamo di descriverlo. Chi stabilisce cosa è un corpo? Cosa accade quando le parole con cui siamo definiti - uomo, donna, normale, anomalo - diventano etichette dentro un dataset? Cosa cambia quando a fissarle non sono soltanto istituzioni sociali, culturali o mediche, ma sistemi algoritmici che le incorporano, le riproducono e le rendono operative su larga scala? Due pensatrici contemporanee aiutano a orientarsi in questa lettura. Judith Butler ha mostrato come il genere sia l’effetto di norme ripetute, interiorizzate, rese evidenti dalla loro stessa reiterazione. Il corpo, nella sua prospettiva, è insieme costruzione e vulnerabilità, esiste dentro contesti di riconoscimento che lo rendono intelligibile o lo espongono all’esclusione. Kate Crawford, studiando l’intelligenza artificiale, evidenzia un altro livello del problema. Gli algoritmi apprendono da archivi storici, da dati che riflettono gerarchie e disuguaglianze già esistenti. Quando classificano un volto o attribuiscono un genere, non scoprono una verità nascosta, ma rendono operative categorie ereditate, spesso senza dichiararle. Tra Butler e Crawford non c’è una sovrapposizione, la prima analizza le norme che producono il soggetto, la seconda mostra come quelle norme vengano oggi tradotte in infrastrutture tecniche. Le loro analisi convergono su un punto, il passaggio dalla costruzione simbolica dell’identità alla sua codifica automatizzata.

L’uomo di bolina nell’era degli agenti

Viviamo un passaggio silenzioso ma profondo: l’intelligenza artificiale non si limita più a rispondere, inizia ad agire. Gli agenti autonomi coordinano processi, prendono decisioni, eseguono azioni in sequenza mentre noi arretriamo di qualche passo. Non credo che la questione sia soltanto tecnologica. È una questione di postura. In questo testo provo a interrogarmi su cosa significhi mantenere una direzione quando la velocità aumenta, su come restare responsabili mentre deleghiamo, su quale forma di maturità sia richiesta quando il vento dell’automazione soffia più forte.

Intervista ImPossibile a Martin Heidegger (IIP #25)

L’intelligenza artificiale viene spesso raccontata come una rivoluzione tecnologica. In realtà, la sua portata pare riguardare più il modo in cui una civiltà interpreta sé stessa. Non siamo soltanto di fronte a nuovi strumenti, ma a una trasformazione che ridefinisce il rapporto tra linguaggio, conoscenza, decisione e immaginazione. L’AI non si limita a produrre immagini o testi, prevede comportamenti, legge il reale in cui tutto tende a presentarsi come dato. In questo contesto la tecnica diventa l’ambiente dentro cui viviamo. Quando il mondo viene progressivamente interpretato come flusso di informazioni elaborabili, anche l’essere umano rischia di essere letto nello stesso modo. Perciò, la questione diventa che cosa accade a una società quando il pensiero viene assimilato al calcolo. Non riguarda soltanto ciò che possiamo fare con le macchine, ma il modo in cui esse riconfigurano l’idea stessa di esperienza e responsabilità. Martin Heidegger, con Essere e tempo ha riportato al centro l’esperienza concreta dell’esistenza, l’essere umano come apertura al mondo. Nei suoi scritti successivi ha individuato nella tecnica moderna un modo di rivelare il mondo, un dispositivo che tende a trasformare ogni cosa in risorsa disponibile e calcolabile. Ha chiamato questo processo Gestell, l’impianto che dispone il reale come fondo da sfruttare. Rileggere oggi quelle pagine significa accorgersi che la logica descritta da Heidegger trova nell’intelligenza artificiale una delle sue forme più compiute, non perché avesse previsto computer e algoritmi, ma perché aveva colto la struttura profonda della civiltà del calcolo, una civiltà in cui il linguaggio rischia di diventare puro scambio di informazioni e l’umano una funzione tra le funzioni. Intervistare Heidegger oggi significa riportare l’AI dentro una storia lunga del pensiero occidentale e restituirla alla sua dimensione più radicale per verificare se le sue categorie siano ancora capaci di illuminare il presente.

Giustizia algoritmica (POV #25)

Cathy O’Neil vs Virginia Eubanks: Chi decide davvero quando un algoritmo decide? Sempre più decisioni che incidono sulla vita delle persone non vengono prese da esseri umani ma da sistemi automatici. Software che selezionano i candidati a un lavoro, punteggi che determinano l’accesso a un prestito, algoritmi che stabiliscono chi può ricevere un sussidio. Quando questi strumenti entrano nei processi pubblici e privati, il confine tra amministrazione tecnica e scelta politica diventa meno visibile. Le decisioni appaiono oggettive, basate sui dati. Ma chi definisce i criteri e risponde degli effetti? Negli ultimi anni le istituzioni europee hanno iniziato a riconoscere che alcune applicazioni dell’intelligenza artificiale incidono direttamente sui diritti. Per questo gli algoritmi usati nel lavoro, nel credito e nel welfare sono considerati “ad alto rischio in quanto può determinare opportunità e limiti di vita senza un reale spazio di contestazione. In questo contesto si collocano due voci ormai centrali nel dibattito internazionale: Cathy O’Neil e Virginia Eubanks. O’Neil, matematica e data scientist, ha definito molti modelli decisionali automatizzati “armi di distruzione matematica”, sistemi difficili da contestare che trasformano dati incompleti in decisioni definitive, spesso rafforzando le disuguaglianze sociali sotto l’apparenza della neutralità statistica. Eubanks, politologa, osserva invece gli algoritmi dal punto di vista del welfare. In Automating Inequality mostra come le tecnologie usate per gestire sussidi e assistenza negli Stati Uniti trasformino la vulnerabilità economica in un problema di sorveglianza e controllo, creando una sorta di “burocrazia digitale della povertà”. Il problema non riguarda solo la qualità tecnica dei modelli, ma la natura stessa della decisione pubblica. Se la selezione di un lavoratore, l’assegnazione di un mutuo o l’accesso a un servizio essenziale vengono affidati a sistemi automatizzati, chi resta responsabile dell’esito? E quale spazio rimane per il dissenso quando le scelte appaiono come il risultato inevitabile di un calcolo?

Né oggetti né soggetti: il vuoto che non possiamo più ignorare

Ci mancano le parole per descrivere quello che sta succedendo nel mondo AI Un agente AI ha diffamato autonomamente un programmatore. Un altro sistema si è assegnato il 15-20% di probabilità di essere cosciente. Uno studio su Nature Communications mostra che i processi interni di questi sistemi convergono con quelli del cervello umano. Tre eventi delle stesse settimane che rivelano un vuoto normativo, etico e concettuale che non possiamo più ignorare.

Forse siamo solo configurazione

Abbiamo iniziato a salvare il nostro modo di lavorare. Non solo i risultati, ma le istruzioni, il tono, i criteri. All’inizio sembrava semplice efficienza: evitare di ripartire ogni volta da zero. Poi è diventato evidente che stavamo facendo qualcosa di diverso. Non ci limitavamo a usare strumenti intelligenti, chiedevamo loro di assomigliarci. Di rispettare le nostre priorità, di muoversi dentro il nostro perimetro. Quando il metodo diventa configurazione, il pensiero prende forma. Diventa qualcosa che può essere salvato, riattivato, persino condiviso. Non è solo tecnologia. È il momento in cui iniziamo a descriverci attraverso parametri e regole. E quando lo facciamo, finiamo per guardarci come sistemi. Forse siamo sempre stati anche questo. La differenza è che oggi lo scriviamo.

Intervista ImPossibile a Umberto Eco (IIP #24)

Con l’avvento delle intelligenze artificiali generative, il rapporto tra linguaggio, verità e interpretazione torna al centro del dibattito culturale e politico. I segni si moltiplicano e si ricombinano spesso senza un autore riconoscibile e senza un’intenzione dichiarata. Algoritmi addestrati su archivi sterminati producono testi, immagini e narrazioni che imitano il pensiero umano, mentre la distinzione tra informazione, interpretazione e manipolazione si fa sempre più sfumata. In questo scenario, interrogarsi sul destino del senso non significa soltanto discutere di tecnologia, ma riflettere sul modo in cui le società costruiscono e condividono significati, stabiliscono criteri di “verità” e organizzano le proprie memorie. Che cosa accade quando i segni non sono più prodotti soltanto dagli esseri umani? Chi interpreta chi, e quale spazio resta al pensiero critico quando la produzione simbolica diventa automatica e pervasiva? Questa intervista impossibile prova a immaginare le risposte di uno degli intellettuali che più di altri ha indagato il potere dei segni e la responsabilità dell’interpretazione. Scrittore, filosofo e semiologo, Umberto Eco è stato tra i maggiori interpreti del Novecento e del primo XXI secolo. Medievalista, teorico del linguaggio, romanziere e osservatore acuto dei media, professore all’Università di Bologna e autore di opere fondamentali come Opera aperta, Apocalittici e integrati e Il nome della rosa, ha dedicato la propria ricerca al rapporto tra segni, potere e interpretazione. Al centro del suo pensiero vi è l’idea che ogni testo sia un campo aperto di significati e che il lettore - o l’interprete - svolga un ruolo decisivo nella costruzione del senso. In un periodo nel quale la crisi delle grandi narrazioni e la dissoluzione delle comunità simboliche, le questioni sollevate da Eco tornano con forza: interpretazione, verità, manipolazione, memoria. Ed è da qui che prende forma questo dialogo immaginario.