NOVITA'[1694]
“Defending against AI is like using butterfly nets against ballistic missiles.”
Today’s conservative guardians of “eternal values” won’t outrun AI, not even if they sprint. Trying to hide from it is like raising a paper umbrella during a barrage of ballistic missiles. The shockwave is already forming, and most people still pretend it’s just a passing breeze. Their moral fortresses crumble the moment the algorithm enters the room. What they call protection is nothing more than ritualised denial dressed up as principle. And the unsettling truth is that the real storm hasn’t even begun to gather. We’re standing at the edge of the blast zone, insisting it’s sunrise.
Collegare i puntini
Quando le voci più autorevoli del pianeta convergono sullo stesso messaggio, forse è il momento di ascoltare
La classe fantasma: quando docenti e studenti copiano dalla stessa IA
Siamo di fronte a una biforcazione storica. L’AI può catalizzare una trasformazione positiva dell’educazione, liberando i docenti migliori da compiti ripetitivi per concentrarsi su ciò che solo l’umano può fare: coltivare curiosità, modellare rigore intellettuale, costruire relazioni educative autentiche. Ma può anche accelerare una deriva già in corso: la riduzione dell’insegnamento a trasferimento di informazioni processate, la perdita della relazione pedagogica come incontro trasformativo tra intelligenze umane, l’atrofia delle competenze sia dei docenti che non sviluppano mai maestria autonoma, sia degli studenti che non incontrano mai resistenza cognitiva produttiva. La differenza tra questi due futuri non risiede nella tecnologia. Risiede nelle scelte politiche, istituzionali e professionali che faremo.
Intelligenza artificiale, società e politica (POV #23)
Kate Crawfor e Yann LeCun: che cos’è davvero l’intelligenza artificiale? È una forma di intelligenza autonoma o, più semplicemente, un insieme di strumenti costruiti dall’essere umano per analizzare dati, fare previsioni e prendere decisioni? E, in questo scenario, chi detiene il potere, poche grandi aziende tecnologiche e governi, oppure una pluralità di soggetti in grado di orientarne lo sviluppo e l’uso? Affidare scelte a sistemi automatici impone di confrontarsi su questioni concrete. Come vengono tutelati i diritti delle persone, chi è responsabile quando un algoritmo produce errori o discriminazioni, e quali regole dovrebbero governare questi processi? Inoltre, in che modo l’intelligenza artificiale sta già trasformando il lavoro, l’organizzazione sociale e le istituzioni democratiche? Questo articolo affronta questi interrogativi attraverso alcuni temi, mettendo a confronto due figure autori centrali del dibattito contemporaneo sull’AI. Da un lato Kate Crawford, ricercatrice e studiosa dei rapporti tra intelligenza artificiale, potere e disuguaglianze sociali, nota per la sua analisi critica delle infrastrutture tecnologiche e dei loro impatti politici. Dall’altro Yann LeCun, informatico e pioniere del deep learning, tra i principali protagonisti dello sviluppo tecnico dell’AI e sostenitore di una visione più ottimista sulle sue potenzialità. Il confronto tra queste due prospettive consente di osservare l’intelligenza artificiale non solo come tecnologia, ma come questione politica e sociale, in cui scelte tecniche e responsabilità pubbliche risultano sempre più intrecciate.
Matrix: quando il futuro bussò alla porta. l’IA tra finzione e imitazione
di Luca Sesini e Beppe Carrella - Matrix mescolava tutto: filosofia e letteratura, cyberpunk e manga, Baudrillard e Philip K. Dick, Orwell e Ghost in the Shell, Neuromancer di Gibson. Un cocktail esplosivo che restituiva una visione potente e inquietante: l'IA non solo imita l'uomo, ma lo supera, lo controlla, lo priva del suo libero arbitrio. Quella che chiamiamo "intelligenza" è simulazione pura: una risposta calcolata, non una riflessione autentica. L'IA riceve input, elabora secondo regole stabilite da chi l'ha costruita, restituisce output. Non pensa. Non desidera. Non sceglie.
Dal Mondo Nuovo alla Nuova Sostenibilità: Etica digitale e Inclusione in Brave New World e 1984
di Luca Sesini e Beppe Carrella La sostenibilità digitale si propone come antidoto alle derive tecnologiche contemporanee, perché non riguarda soltanto aspetti tecnici, ma investe anche dimensioni culturali e politiche. Non basta limitarsi a ridurre l’impatto ambientale dell’IT — come il consumo energetico dei data center — occorre ripensare profondamente il ruolo della tecnologia nella società. Promuovere un uso etico e consapevole degli strumenti digitali significa orientare la trasformazione digitale verso obiettivi di sviluppo sostenibile, inclusivo e responsabile. La tecnologia, in sé, non è né virtuosa né dannosa: è il modo in cui la impieghiamo a determinarne gli effetti
Intervista ImPossibile a Bruno Latour (IIP #22)
L’intelligenza artificiale non pensa, governa. Bruno Latour ci ha insegnato che la modernità si è costruita su una finzione utile, quella di separare natura e società, scienza e politica, fatti e valori. Una finzione che ha permesso di presentare molte scelte come “neutrali” o “oggettive”, quando in realtà erano già politiche, ma non dichiarate. Oggi l’AI rende questa finzione più fragile perché mostra in modo chiaro ciò che era già presente, ovvero regole nascoste dentro ai sistemi, criteri che decidono al posto nostro, forme di potere esercitate attraverso dispositivi tecnici, senza responsabilità visibile. In questa intervista impossibile, Latour non risponde alla domanda “che cos’è l’intelligenza artificiale?”, ma a “chi sta davvero agendo quando è una macchina a filtrare le informazioni, assegnare punteggi, classificare persone?” “Chi se ne assume la responsabilità?”
Usare l'Intelligenza Artificiale consapevolmente: gli Autoencoder nella Spettroscopia Raman
L’integrazione dell’Intelligenza Artificiale nella ricerca scientifica richiede un passaggio fondamentale dalla "black box" alla consapevolezza architettonica. Il presente lavoro esplora l'utilizzo degli autoencoder — una forma specifica di IA generativa — non come semplici strumenti di denoising, ma come modelli interpretativi nella spettroscopia, che nel caso ora proposto è la spettroscopia Raman. Attraverso la compressione dei dati in uno spazio latente, ottimizzato mediante funzioni di attivazione come la sigmoide, l'autoencoder permette di trascendere il dato grezzo per generare uno pseudospettro. Questa strategia, basata sull'apprendimento di cluster di materiali puri (derivanti da database come RRUFF), consente di creare modelli di riferimento ideali. Lo pseudospettro diventa così un ponte metodologico per validare segnali o reinterpretare dati storici. Non solo, lo pseudospettro aiuta a comprendere come l'Autoencoder ragioni. In tal modo esso non è più una scatola nera ma uno strumento cognitivo. L’approccio proposto dimostra quindi come un uso consapevole delle architetture neurali possa trasformare l'IA in un raffinato setaccio molecolare, capace di rivelare la firma vibrazionale autentica di minerali e composti organici, anche in presenza di un elevato rapporto segnale-rumore.
L’eccezione della comprensione
Forse ciò che ci scandalizza nelle macchine è che ci costringono a guardare una verità scomoda, che una grande parte della nostra conoscenza funziona senza comprensione, e che il capire non è ciò che garantisce il funzionamento del sapere, ma qualcosa di più fragile, più raro, più esigente. Dire che non tutto ciò che è saputo è anche capito non è quindi una critica all’intelligenza artificiale. È una constatazione sul modo in cui la conoscenza umana si è sempre organizzata.
Abitare il vuoto fertile
Tecnologia, tempo e resistenza nell'era dell'intelligenza artificiale
Empatia senza emozione
Cortesia, comportamento e intelligenza artificiale nel tessuto sociale
Moltbook and the Question of Novelty
Moltbook is an experimental social platform in which large language model agents post and respond to one another with minimal human intervention. There are no explicit goals, shared tasks, or coordination mechanisms. What emerges instead is sustained interaction among language-producing systems operating within a closed conversational environment.
L’Europa, la geopolitica e l’intelligenza artificiale.
Le big tech non sfidano gli Stati forti: li prolungano. Gli Stati forti, a loro volta, non regolano davvero le big tech: le incorporano come infrastrutture strategiche. È una simbiosi funzionale, fondata sulla reciproca capacità di imporre costi agli altri. Questa è la storia di come l'Europa abbia costruito l'infrastruttura più critica e fondamentale dell'era digitale e di come abbia perso ogni controllo su di essa.
Only What Is Alive Can Be Conscious - Artificial intelligence doesn’t meet the test.
This essay has been published on the NOEMA magazine and have granted permissions from his author Nathan Gardels to be share through the STULTIFERANAVIS. We welcome our ship visitos to read the article aboard or to visit NOEMA magazine, to read the article but also to investigate the richness of the American magazine's content and culture. Links are provided in th text.
Democrazia algoritmica (POV #22)
Jaron Lanier e Cathy O’Neil: Gli algoritmi possono essere compatibili con la democrazia, oppure la loro logica economica e tecnica la sta lentamente svuotando dall’interno? Viviamo immersi nei dati, ma comprendiamo sempre meno i dispositivi che li trasformano in decisioni. Che cosa accade quando scelte politiche, economiche e sociali vengono delegate a modelli matematici? Gli algoritmi promettono efficienza, oggettività, razionalità. Ma chi li progetta? Chi li governa? Chi ne subisce gli effetti? La cosiddetta “democrazia algoritmica” si presenta così come una forma di governo senza elezioni né dibattito pubblico, un potere incorporato nei sistemi che regolano l’accesso al credito, la selezione del lavoro, la circolazione delle informazioni, le pratiche di sicurezza e sorveglianza. Non è una nuova istituzione, ma un’infrastruttura decisionale che agisce sotto la soglia della visibilità politica.
La vera alfabetizzazione all’AI non è saperla usare. È sapere quando fermarsi.
L’alfabetizzazione all’intelligenza artificiale viene spesso ridotta a una questione di competenza tecnica. Ma c’è una dimensione più sottile, e più umana, che riguarda il momento in cui scegliamo di non delegare. Questo testo esplora il valore cognitivo e morale del fermarsi, in un’epoca che ci spinge a ottimizzare tutto.
AI Is the Cancer Eating Institutions Alive
Institutions won’t collapse because AI is too intelligent. They’ll collapse because they’re utterly unprepared for it. AI doesn’t strike like a storm. It erodes. Quietly. Systematically. And exactly in the places where institutions are weakest: in processes no one understands, in decisions no one verifies, and in responsibilities everyone keeps passing around like a hot potato. What happens next: AI will generate documents faster than institutions can grasp their consequences. Employees will stop making decisions and start outsourcing responsibility to algorithms. Systems will run flawlessly while the world around them falls apart. Model errors will become routine because no one has time to check them. Attackers will realize the weakest link isn’t the AI it’s the human who trusts it blindly. And then comes the moment when the institution wakes up and discovers it no longer runs its processes. The processes run it. AI won’t destroy institutions. Institutions will destroy themselves, unless they understand that technology isn’t a substitute for thinking, but a stress test of their resilience.
Only What Is Alive Can Be Conscious
The Humanities in the Age of LLMs
When poorly used, LLMs tend to short-circuit the moment of suspension from which reflection should arise. Delegating a difficulty to a program without first confronting it oneself amounts to bypassing the passage to reflection that experience of the world makes possible. The risk—already widely observed in educational contexts—is that AI becomes an automatism that takes the place of thinking itself.