Il paradiso artificiale dell'intelligenza

Questa mattina, mentre attraversavo la città in sella allo scooter (momento meraviglioso per pensare), mi è venuto in mente che il termine "artificiale" ha sempre avuto, fino a un po' di tempo fa, una connotazione non propriamente positiva. Allora sono andato a cercare con la memoria usi del termine: paradisi artificiali, fiori artificiali, ecc. Poi, fermo ad un semaforo, mi sono detto: "vedi, però, come cambia la percezione collettiva del linguaggio, eh? Oggi con l'AI la parola è diventata una bella parola. - sì, d'accordo, parto, scusa, scusa - era venuto verde". Beh, com'è come non è, come ormai faccio sempre, tornato a casa ho aperto Perplexity (versione Claude 4.5) e ho cominciato a conversare con lui/lei/esso su queste riflessioni, che, come al solito, si sono espanse, dilatate, trasformate, arricchite. Ed allora, sempre come mio solito, con la conversazione con Perplexity sotto il braccio (per modo di dire), ho bussato alla porta di Claude (in una smagliante e scintillante versione Opus 4.6), con cui, in due o tre passaggi, ho scritto (?), generato, prodotto, il testo che segue. Come vedrete sono nella contraddizione con tutte le scarpe.

Intervista ImPossibile a Sigmund Freud (IIP #23)

La macchina e l’inconscio L’AI promette di analizzare comportamenti, prevedere desideri, automatizzare decisioni. Si presenta come uno strumento capace di leggere l’umano attraverso i dati, trasformando tracce digitali, linguaggi e abitudini in modelli predittivi. Ma può davvero comprendere l’essere umano? O rischia, al contrario, di ridurre la complessità psichica a un sistema di calcolo e previsione? Interrogare oggi Freud sull’intelligenza artificiale è un modo per indagare quanto dell’esperienza umana può essere tradotto in dati. Fondatore della psicoanalisi e teorico dell’inconscio, Freud ha mostrato che il comportamento umano non è guidato soltanto dalla razionalità o dall’interesse, ma attraversato da desideri, rimozioni, conflitti, fantasie e pulsioni che sfuggono alla coscienza. La sua teoria della mente - articolata tra Es, Io e Super-Io - ha incrinato l’idea moderna di un soggetto pienamente consapevole di sé, introducendo una frattura destinata a segnare tutto il pensiero contemporaneo. Oggi, a più di un secolo di distanza, l’intelligenza artificiale sembra riproporre una nuova promessa di conoscenza totale. Attraverso l’analisi dei dati e l’apprendimento automatico, le macchine sono in grado di individuare correlazioni, anticipare comportamenti, suggerire decisioni. In questa prospettiva, l’AI appare talvolta come una forma di psicoanalisi automatizzata, un sistema che classifica e prevede. Eppure la psicoanalisi non è mai stata una semplice tecnica di osservazione. Il sintomo, per Freud, non è un dato oggettivo da registrare, ma un messaggio da interpretare all’interno di una relazione. Il desiderio, una forza che si manifesta attraverso rimozioni e ritorni. Il sogno, una formazione dell’inconscio che parla per spostamenti e condensazioni. Da qui nasce la tensione tra psicoanalisi e intelligenza artificiale. Una macchina può riconoscere schemi, ma può interpretare il senso di un sintomo? Può distinguere tra comportamento e desiderio? Può comprendere ciò che nell’essere umano resta contraddittorio, non riducibile a una sequenza di dati? Questa intervista impossibile prova a immaginare le risposte di Freud di fronte all’AI, per utilizzare il suo pensiero come strumento critico nel presente. Se l’intelligenza artificiale rappresenta una delle tecnologie decisive del nostro tempo, la psicoanalisi resta uno dei dispositivi più radicali per interrogare l’idea stessa di soggetto. Mettere a confronto questi due contesti significa indagare il confine tra calcolo e desiderio, tra macchina e umano.

“Defending against AI is like using butterfly nets against ballistic missiles.”

Today’s conservative guardians of “eternal values” won’t outrun AI, not even if they sprint. Trying to hide from it is like raising a paper umbrella during a barrage of ballistic missiles. The shockwave is already forming, and most people still pretend it’s just a passing breeze. Their moral fortresses crumble the moment the algorithm enters the room. What they call protection is nothing more than ritualised denial dressed up as principle. And the unsettling truth is that the real storm hasn’t even begun to gather. We’re standing at the edge of the blast zone, insisting it’s sunrise.

La classe fantasma: quando docenti e studenti copiano dalla stessa IA

Siamo di fronte a una biforcazione storica. L’AI può catalizzare una trasformazione positiva dell’educazione, liberando i docenti migliori da compiti ripetitivi per concentrarsi su ciò che solo l’umano può fare: coltivare curiosità, modellare rigore intellettuale, costruire relazioni educative autentiche. Ma può anche accelerare una deriva già in corso: la riduzione dell’insegnamento a trasferimento di informazioni processate, la perdita della relazione pedagogica come incontro trasformativo tra intelligenze umane, l’atrofia delle competenze sia dei docenti che non sviluppano mai maestria autonoma, sia degli studenti che non incontrano mai resistenza cognitiva produttiva. La differenza tra questi due futuri non risiede nella tecnologia. Risiede nelle scelte politiche, istituzionali e professionali che faremo.

Intelligenza artificiale, società e politica (POV #23)

Kate Crawfor e Yann LeCun: che cos’è davvero l’intelligenza artificiale? È una forma di intelligenza autonoma o, più semplicemente, un insieme di strumenti costruiti dall’essere umano per analizzare dati, fare previsioni e prendere decisioni? E, in questo scenario, chi detiene il potere, poche grandi aziende tecnologiche e governi, oppure una pluralità di soggetti in grado di orientarne lo sviluppo e l’uso? Affidare scelte a sistemi automatici impone di confrontarsi su questioni concrete. Come vengono tutelati i diritti delle persone, chi è responsabile quando un algoritmo produce errori o discriminazioni, e quali regole dovrebbero governare questi processi? Inoltre, in che modo l’intelligenza artificiale sta già trasformando il lavoro, l’organizzazione sociale e le istituzioni democratiche? Questo articolo affronta questi interrogativi attraverso alcuni temi, mettendo a confronto due figure autori centrali del dibattito contemporaneo sull’AI. Da un lato Kate Crawford, ricercatrice e studiosa dei rapporti tra intelligenza artificiale, potere e disuguaglianze sociali, nota per la sua analisi critica delle infrastrutture tecnologiche e dei loro impatti politici. Dall’altro Yann LeCun, informatico e pioniere del deep learning, tra i principali protagonisti dello sviluppo tecnico dell’AI e sostenitore di una visione più ottimista sulle sue potenzialità. Il confronto tra queste due prospettive consente di osservare l’intelligenza artificiale non solo come tecnologia, ma come questione politica e sociale, in cui scelte tecniche e responsabilità pubbliche risultano sempre più intrecciate.

Matrix: quando il futuro bussò alla porta. l’IA tra finzione e imitazione

di Luca Sesini e Beppe Carrella - Matrix mescolava tutto: filosofia e letteratura, cyberpunk e manga, Baudrillard e Philip K. Dick, Orwell e Ghost in the Shell, Neuromancer di Gibson. Un cocktail esplosivo che restituiva una visione potente e inquietante: l'IA non solo imita l'uomo, ma lo supera, lo controlla, lo priva del suo libero arbitrio. Quella che chiamiamo "intelligenza" è simulazione pura: una risposta calcolata, non una riflessione autentica. L'IA riceve input, elabora secondo regole stabilite da chi l'ha costruita, restituisce output. Non pensa. Non desidera. Non sceglie.

Dal Mondo Nuovo alla Nuova Sostenibilità: Etica digitale e Inclusione in Brave New World e 1984

di Luca Sesini e Beppe Carrella La sostenibilità digitale si propone come antidoto alle derive tecnologiche contemporanee, perché non riguarda soltanto aspetti tecnici, ma investe anche dimensioni culturali e politiche. Non basta limitarsi a ridurre l’impatto ambientale dell’IT — come il consumo energetico dei data center — occorre ripensare profondamente il ruolo della tecnologia nella società. Promuovere un uso etico e consapevole degli strumenti digitali significa orientare la trasformazione digitale verso obiettivi di sviluppo sostenibile, inclusivo e responsabile. La tecnologia, in sé, non è né virtuosa né dannosa: è il modo in cui la impieghiamo a determinarne gli effetti

Intervista ImPossibile a Bruno Latour (IIP #22)

L’intelligenza artificiale non pensa, governa. Bruno Latour ci ha insegnato che la modernità si è costruita su una finzione utile, quella di separare natura e società, scienza e politica, fatti e valori. Una finzione che ha permesso di presentare molte scelte come “neutrali” o “oggettive”, quando in realtà erano già politiche, ma non dichiarate. Oggi l’AI rende questa finzione più fragile perché mostra in modo chiaro ciò che era già presente, ovvero regole nascoste dentro ai sistemi, criteri che decidono al posto nostro, forme di potere esercitate attraverso dispositivi tecnici, senza responsabilità visibile. In questa intervista impossibile, Latour non risponde alla domanda “che cos’è l’intelligenza artificiale?”, ma a “chi sta davvero agendo quando è una macchina a filtrare le informazioni, assegnare punteggi, classificare persone?” “Chi se ne assume la responsabilità?”

Usare l'Intelligenza Artificiale consapevolmente: gli Autoencoder nella Spettroscopia Raman

L’integrazione dell’Intelligenza Artificiale nella ricerca scientifica richiede un passaggio fondamentale dalla "black box" alla consapevolezza architettonica. Il presente lavoro esplora l'utilizzo degli autoencoder — una forma specifica di IA generativa — non come semplici strumenti di denoising, ma come modelli interpretativi nella spettroscopia, che nel caso ora proposto è la spettroscopia Raman. Attraverso la compressione dei dati in uno spazio latente, ottimizzato mediante funzioni di attivazione come la sigmoide, l'autoencoder permette di trascendere il dato grezzo per generare uno pseudospettro. Questa strategia, basata sull'apprendimento di cluster di materiali puri (derivanti da database come RRUFF), consente di creare modelli di riferimento ideali. Lo pseudospettro diventa così un ponte metodologico per validare segnali o reinterpretare dati storici. Non solo, lo pseudospettro aiuta a comprendere come l'Autoencoder ragioni. In tal modo esso non è più una scatola nera ma uno strumento cognitivo. L’approccio proposto dimostra quindi come un uso consapevole delle architetture neurali possa trasformare l'IA in un raffinato setaccio molecolare, capace di rivelare la firma vibrazionale autentica di minerali e composti organici, anche in presenza di un elevato rapporto segnale-rumore.

L’eccezione della comprensione

Forse ciò che ci scandalizza nelle macchine è che ci costringono a guardare una verità scomoda, che una grande parte della nostra conoscenza funziona senza comprensione, e che il capire non è ciò che garantisce il funzionamento del sapere, ma qualcosa di più fragile, più raro, più esigente. Dire che non tutto ciò che è saputo è anche capito non è quindi una critica all’intelligenza artificiale. È una constatazione sul modo in cui la conoscenza umana si è sempre organizzata.

Moltbook and the Question of Novelty

Moltbook is an experimental social platform in which large language model agents post and respond to one another with minimal human intervention. There are no explicit goals, shared tasks, or coordination mechanisms. What emerges instead is sustained interaction among language-producing systems operating within a closed conversational environment.

L’Europa, la geopolitica e l’intelligenza artificiale.

Le big tech non sfidano gli Stati forti: li prolungano. Gli Stati forti, a loro volta, non regolano davvero le big tech: le incorporano come infrastrutture strategiche. È una simbiosi funzionale, fondata sulla reciproca capacità di imporre costi agli altri. Questa è la storia di come l'Europa abbia costruito l'infrastruttura più critica e fondamentale dell'era digitale e di come abbia perso ogni controllo su di essa.

Only What Is Alive Can Be Conscious - Artificial intelligence doesn’t meet the test.

This essay has been published on the NOEMA magazine and have granted permissions from his author Nathan Gardels to be share through the STULTIFERANAVIS. We welcome our ship visitos to read the article aboard or to visit NOEMA magazine, to read the article but also to investigate the richness of the American magazine's content and culture. Links are provided in th text.

Democrazia algoritmica (POV #22)

Jaron Lanier e Cathy O’Neil: Gli algoritmi possono essere compatibili con la democrazia, oppure la loro logica economica e tecnica la sta lentamente svuotando dall’interno? Viviamo immersi nei dati, ma comprendiamo sempre meno i dispositivi che li trasformano in decisioni. Che cosa accade quando scelte politiche, economiche e sociali vengono delegate a modelli matematici? Gli algoritmi promettono efficienza, oggettività, razionalità. Ma chi li progetta? Chi li governa? Chi ne subisce gli effetti? La cosiddetta “democrazia algoritmica” si presenta così come una forma di governo senza elezioni né dibattito pubblico, un potere incorporato nei sistemi che regolano l’accesso al credito, la selezione del lavoro, la circolazione delle informazioni, le pratiche di sicurezza e sorveglianza. Non è una nuova istituzione, ma un’infrastruttura decisionale che agisce sotto la soglia della visibilità politica.