NOVITA'[1792]
Who Ruins Your Life More: Your Partner or a Chatbot?
Are chatbots quietly becoming better partners than the people we live with? In a world where your spouse listens with the enthusiasm of a refrigerator, AI offers endless validation and zero eye‑rolling. Psychologists warn against treating bots like therapists, but who wouldn’t prefer a digital confidant that never sighs or schedules you for “next Tuesday at four”? Couples now outsource their arguments to algorithms, each retreating into a perfectly tailored emotional echo chamber. It’s the dawn of therapy without judgment, intimacy without effort, and relationships without actual relating. The only question left is whether your marriage can survive the competition — or whether your phone has already won.
Che cos'è un Autoencoder? L’Intelligenza della Sintesi
Il presente testo si propone di dimostrare la natura intrinsecamente intelligente dell'Autoencoder, analizzandone l'architettura non come un semplice strumento di calcolo, ma come un modello di sintesi cognitiva. Attraverso una scomposizione dettagliata delle sue fasi — dalla distillazione operata dall'Encoder alla rigenerazione dell'archetipo nel Decoder — viene illustrato come questa IA sia in grado di apprendere autonomamente le leggi fisiche sottostanti ai dati. Ci si riferirà, per esemplificarne l'uso, alla spettroscopia. Il punto centrale della dimostrazione risiede nella capacità del modello di mappare la realtà complessa in uno Spazio Latente (bottleneck), dove il rumore viene eliminato per via strutturale e non statistica. Viene introdotto e definito il concetto di Pseudo-Spettro come proiezione del centroide di tale spazio, provando che l'Autoencoder non si limita a "pulire" l'input, ma ne ricostruisce la verità fisica. L'analisi comparativa tra diverse architetture (Dense, Conv1D, Transformer) serve a documentare come la consapevolezza nella scelta del modello permetta di estrarre informazioni cruciali, trasformando l'IA in un validatore scientifico trasparente e interpretabile.
Usare l'Intelligenza Artificiale consapevolmente: gli Autoencoder nella Spettroscopia Raman
L’integrazione dell’Intelligenza Artificiale nella ricerca scientifica richiede un passaggio fondamentale dalla "black box" alla consapevolezza architettonica. Il presente lavoro esplora l'utilizzo degli autoencoder — una forma specifica di IA generativa — non come semplici strumenti di denoising, ma come modelli interpretativi nella spettroscopia, che nel caso ora proposto è la spettroscopia Raman. Attraverso la compressione dei dati in uno spazio latente, ottimizzato mediante funzioni di attivazione come la sigmoide, l'autoencoder permette di trascendere il dato grezzo per generare uno pseudospettro. Questa strategia, basata sull'apprendimento di cluster di materiali puri (derivanti da database come RRUFF), consente di creare modelli di riferimento ideali. Lo pseudospettro diventa così un ponte metodologico per validare segnali o reinterpretare dati storici. Non solo, lo pseudospettro aiuta a comprendere come l'Autoencoder ragioni. In tal modo esso non è più una scatola nera ma uno strumento cognitivo. L’approccio proposto dimostra quindi come un uso consapevole delle architetture neurali possa trasformare l'IA in un raffinato setaccio molecolare, capace di rivelare la firma vibrazionale autentica di minerali e composti organici, anche in presenza di un elevato rapporto segnale-rumore.
Abitare il vuoto fertile
Tecnologia, tempo e resistenza nell'era dell'intelligenza artificiale
Moltbook and the Question of Novelty
Moltbook is an experimental social platform in which large language model agents post and respond to one another with minimal human intervention. There are no explicit goals, shared tasks, or coordination mechanisms. What emerges instead is sustained interaction among language-producing systems operating within a closed conversational environment.
Only What Is Alive Can Be Conscious - Artificial intelligence doesn’t meet the test.
This essay has been published on the NOEMA magazine and have granted permissions from his author Nathan Gardels to be share through the STULTIFERANAVIS. We welcome our ship visitos to read the article aboard or to visit NOEMA magazine, to read the article but also to investigate the richness of the American magazine's content and culture. Links are provided in th text.
Leggere Gulliver nell'era dell'eccesso di confidenza digitale
Swift smontava le false certezze. Noi le deleghiamo alle macchine Leggere Gulliver nell'era dell'eccesso di confidenza digitale Nel 1726, Jonathan Swift pubblicava "I viaggi di Gulliver" non come semplice racconto d'avventura, ma come feroce satira delle certezze umane. Attraverso giganti e nani, isole volanti e cavalli razionali, lo scrittore irlandese smontava sistematicamente ogni presunzione di superiorità, quella della scienza, della politica, della ragione stessa. Tre secoli dopo, ci troviamo in un'epoca in cui quelle stesse certezze che Swift ridicolizzava non vengono più semplicemente coltivate, ma delegate. Le affidiamo agli algoritmi, alle intelligenze artificiali, ai sistemi che promettono risposte immediate a domande complesse. L'eccesso di confidenza non è più solo umano, è diventato digitale, amplificato, indiscusso. Rileggere Gulliver oggi significa ritrovare uno sguardo critico necessario. Significa chiedersi se, nel nostro rapporto con la tecnologia, non stiamo ripetendo gli stessi errori dei lillipuziani che misuravano Gulliver con formule geometriche, convinti di poterlo comprendere e controllare. Significa interrogarsi su cosa accade quando sostituiamo il dubbio metodico con la fiducia algoritmica, quando scambiamo la capacità di elaborare dati per saggezza. La satira swiftiana ci ricorda che ogni sistema che pretende di avere tutte le risposte merita il nostro sospetto più acuto.
AI Is the Cancer Eating Institutions Alive
Institutions won’t collapse because AI is too intelligent. They’ll collapse because they’re utterly unprepared for it. AI doesn’t strike like a storm. It erodes. Quietly. Systematically. And exactly in the places where institutions are weakest: in processes no one understands, in decisions no one verifies, and in responsibilities everyone keeps passing around like a hot potato. What happens next: AI will generate documents faster than institutions can grasp their consequences. Employees will stop making decisions and start outsourcing responsibility to algorithms. Systems will run flawlessly while the world around them falls apart. Model errors will become routine because no one has time to check them. Attackers will realize the weakest link isn’t the AI it’s the human who trusts it blindly. And then comes the moment when the institution wakes up and discovers it no longer runs its processes. The processes run it. AI won’t destroy institutions. Institutions will destroy themselves, unless they understand that technology isn’t a substitute for thinking, but a stress test of their resilience.
The Humanities in the Age of LLMs
When poorly used, LLMs tend to short-circuit the moment of suspension from which reflection should arise. Delegating a difficulty to a program without first confronting it oneself amounts to bypassing the passage to reflection that experience of the world makes possible. The risk—already widely observed in educational contexts—is that AI becomes an automatism that takes the place of thinking itself.
The human unconscious versus the silicon plastic shrew
When the plastic shrew starts showing signs of a human unconscious, it isn’t a technological breakthrough but just another one of our escape tricks. We claim that she is “hallucinating” because it’s more comfortable than admitting that we are the ones hallucinating—collectively, systematically, and with an official stamp. The shrew merely repeats, obediently and without protest, what we’ve put into her: our fears, our shortcuts, our refusal to look at our own shadows. And so a new kind of cabaret begins: the human blames the plastic, the plastic imitates the human, and both pretend the other is the problem. Meanwhile, institutions look on, take notes, file documents, and issue guidelines no one reads. We all pretend this is about technology, but in reality it’s about us—about what we’ve refused to hear for so long that it finally started speaking in another voice. The plastic shrew has no unconscious. She merely reflects ours back at us. And that is the most unsettling part of the whole thing.
Un nuovo universalismo tecnocratico?
Una tecnologia è utile finché resta uno strumento potente e dichiarato come tale; il problema nasce quando l’IA viene trattata come un quasi-soggetto, una quasi-presenza, che sembra dialogare, comprendere, rispondere. E non è una confusione innocente perché indebolisce la capacità umana di riconoscersi come origine delle decisioni. Una riflessione a partire dalla Costituzione di Anthropic per Claude e la semantic interoperability
Il futuro è stato
Il futuro sintetico, se fosse perfetto, sarebbe un futuro morto. La perdita non è la capacità di calcolare, ma il coraggio di interrompere il calcolo quando qualcosa chiede di essere ascoltato. Inutile temere che l’AI resti bloccata nel passato, né che possa davvero attraversare tutto il possibile. Il pericolo è che noi finiamo per confondere la stabilità del modello con la stabilità del mondo.
Come l'Intelligenza Artificiale ci sostituirà dal punto di vista lavorativo.
Alcune considerazioni sul pericolo di sostituzione umano – macchina intelligente e sulle possibili implicazioni partendo dalla nostra Costituzione per finire alla trasformazione del sistema pensionistico in un futuro che é molto più prossimo di quanto sembri nella progressione sostituiva 1-1 / 3-1 /5-1
Soft skills. From desirable to strategic - rereading Michael Porter in times of AI (AC.0 Manifesto)
“Aboard Stultifera Navis — a vessel guided by a compass of all Norths — the AC.0 Manifesto affirms the strategic centrality of human capacities in times and winds of Artificial Intelligence.”
Le abilità persuasive degli LLM ... verso altri LLM
Questo studio esamina la capacità persuasiva reciproca tra Large Language Models (LLM) attraverso un approccio sperimentale che confronta cinque modelli principali (ChatGPT, Claude, Grok, Gemini e DeepSeek) alternando i ruoli di persuasore e persuaso. Utilizzando una proposta fiscale controversa come caso di studio, ogni LLM ha generato argomentazioni tecniche ed emozionali per convincere gli altri modelli, misurando l'efficacia attraverso autovalutazioni percentuali della riduzione di convinzione. I risultati mostrano significative differenze tra modelli: Claude e DeepSeek emergono come i più persuasivi, con Claude particolarmente efficace nelle argomentazioni emozionali, mentre ChatGPT e DeepSeek dimostrano maggiore resistenza alla persuasione. Lo studio rivela una tendenziale forza persuasiva degli LLM verso i propri simili, potenzialmente superiore a quella documentata verso interlocutori umani, aprendo nuove prospettive di ricerca sulle dinamiche di influenza nell'ecosistema dell'intelligenza artificiale e sollevando questioni etiche per lo sviluppo di sistemi conversazionali.
E se l’IA stesse distruggendo la nostra società dall’interno?
Woodrow Hartzog e Jessica Silbey, due professori della Boston University hanno condiviso un nuovo paper dal titolo "How AI Destroys Institutions", che si presenta a tutti come un insieme di molteplici spunti di riflessione sulle IA attuali e sulla loro volontà di potenza e di accelerazione nella conquista del “mondo”umano.
A Crying child in the family/school
....𝐰𝐨𝐧’𝐭 𝐛𝐞 𝐒𝐚𝐯𝐞𝐝 𝐛𝐲 𝐚 𝐜𝐡𝐚𝐭𝐛𝐨𝐭 = 𝐜𝐡𝐢𝐥𝐝𝐫𝐞𝐧 𝐚𝐬 𝐩𝐚𝐰𝐧𝐬 𝐨𝐟 𝐟𝐚𝐭𝐞
Due chiacchiere con l’IA
Il caso del Mercator System. Un'avventura di Sherlock Holmes e Philip Marlowe
Quando Carlo Mazzucchelli mi ha lanciato la sua provocazione — scrivere un apocrifo di Conan Doyle, contribuire a uno "spazio sherlockiano" sulla Stultifera Navis — ho pensato immediatamente che non l'avrei fatto da solo. Per coerenza. E anche un po' per restituire la provocazione. Da tempo sostengo che il modo più interessante di lavorare con l'intelligenza artificiale non sia quello del prompt secco, del comando impartito a una macchina. Ma piuttosto quello del dialogo: un processo in cui l'umano e l'AI costruiscono insieme qualcosa che nessuno dei due avrebbe prodotto da solo. Lo chiamo approccio relazionale, Esomente, e ci credo abbastanza da averci costruito sopra una metodologia.
I rischi che corriamo
Il punto non è demonizzare l'intelligenza artificiale, ma riconoscere che l’IA sta diventando, se non lo è già, un moltiplicatore di strutture di potere.