How AI-generated prose diverges from human writing and why it matters

IA generative e umani ormai si imitano a vicenda. Molti umani però non si rendono conto che la loro imitazione non è altro che il risultato dell'imitazione delle IA che utilizzano. Ne deriva un quadro deprimente, tragico, di persone che si credono intelligenti ma lo sono sempre meno, e di intelligenze artificiali che nel frattempo diventano (forse) più intelligenti, sicuramente sempre più brave ad imitare il comportamento e "l'intelligenza)" degli umani. Tutto ciò, chi non condividesse la riflessione qui proposta, è chiamato a riflettere su come i prodotti elaborati dalle IA in risposta alle domande degli umani vengano riprodotti e condivisi sulle piattaforme social. L'IA ha un suo linguaggio, un suo stile, dei tic(toc) sintattici e algoritmici che stanno cambiando il linguaggio, lo stile di scrittura e le abitudini personali di moltitudini di persone. Un lavoro di ricerca condotto da Marina Adami e pubblicato su Reuters Institute spiega molte cose, suggerisce innumerevoli spunti di riflessione, in una parola fa riflettere, insegna anche a usare con maggiore intelligenza le IA generative.

Una teoria politica dell’AI: verso l’intelligenza collettiva

Questo articolo non pretende di offrire risposte definitive. Al contrario, vuole chiudersi con un impegno: trattare queste domande non come un esercizio teorico, ma come una necessità politica urgente. Perché se l’AI diventerà parte delle fondamenta della nostra vita collettiva, allora il modo in cui la progetteremo, la governeremo e la criticheremo determinerà non solo il futuro della tecnologia, ma il futuro stesso della democrazia.

AI-Human Dialogue as Cognitive Assemblage

Contemporary descriptions of AI–human exchange often rely on terms such as collaboration, co-creation, or co-reasoning. These labels register that knowledge develops through back-and-forth contribution rather than unilateral production. What they fail to explain is how meaning actually changes across the exchange. They describe outcomes without specifying mechanism.

AI 2027

Segnalazione di un paper scritto da Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland, Romeo Dean. Il paper è disponibile sul sito del "The AI Futures Project" creato da un piccolo gruppo di ricerca, sostenuto da donazioni e grant pubblici, che fa previsioni sull'IA forecasting the future of AI.

If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All

Un testo di Eliezer Yudkowsky e Nate Soares  pubblicato nel 2025 che richiama l’attenzione di tutti con l’invito a riflettere criticamente sull’evoluzione in corso delle Intelligenze artificiali, sull’uso diffuso, acritico e superficiale che ne viene fatto e sulle narrazioni tendenzialmente tecno-ottimiste dominanti. Il testo rappresenta il tentativo più diretto e accessibile di Eliezer Yudkowsky e Nate Soares di comunicare a un pubblico ampio la loro tesi sulla minaccia esistenziale rappresentata dall'intelligenza artificiale superintelligente (ASI).

Intelligenza animale, umana e artificiale (POV #17)

Frans de Waal e Yann LeCun: il mito dell’intelligenza umana come misura di tutte le cose. L’intelligenza non è più un’esclusiva dell’essere umano. Negli ultimi decenni, gli studi sull’etologia e l’intelligenza artificiale hanno minato l’antico confine tra istinto e ragione. Ma se gli animali pensano, e le macchine imparano, cosa resta dell’umano?

Mente, coscienza e il limite dell’AI (POV #16)

Andy Clark vs Federico Faggin: le differenze tra umano e artificiale Che cos’è la mente? Un insieme di processi che coinvolgono cervello, corpo e ambiente, oppure qualcosa di più profondo che nessuna macchina potrà mai riprodurre? L’intelligenza artificiale è un partner evolutivo, capace di ampliare le nostre capacità cognitive, o resta un sistema privo di comprensione autentica? Che cosa distingue davvero l’essere umano da una macchina intelligente?

L'Intelligenza Artificiale ci annienterà nel 2026? Forse, ma senz'altro insieme al Quantum!

È stata una grande abbuffata di parole sui modelli e sistemi di intelligenza artificiale generativa o agentica, come viene definita adesso per sottolineare una grande svolta rispetto a qualche mese fa... Il 2025 si è caratterizzato, infatti, per un instancabile susseguirsi di articoli, video e podcast finalizzati a illuminarci sulle mirabolanti opportunità e/o sui patologici rischi dell'intelligenza artificiale.

La mente bicamerale e l’intelligenza artificiale: un ritorno alle voci degli dèi

La teoria della mente bicamerale, proposta da Julian Jaynes, suggerisce che gli esseri umani antichi operassero attraverso una divisione funzionale del cervello, in cui le decisioni erano guidate da “voci” percepite come divine. Con l’avvento della coscienza moderna, questa struttura si è dissolta, lasciando spazio all’introspezione e all’autoconsapevolezza. Tuttavia, l’emergere dell’intelligenza artificiale generativa solleva interrogativi sulla possibilità di un ritorno, chiaramente metaforico, a una forma di mente bicamerale, in cui le macchine fungono da nuove “voci” esterne che influenzano il pensiero e il comportamento umano. Questo articolo esplora il parallelo tra la teoria di Jaynes e l’interazione contemporanea con l’AI, analizzando le implicazioni cognitive e culturali di questa evoluzione.

AI makes you smarter but none the wiser: The disconnect between performance and metacognition

Segnalo all’attenzione die naviganti della nave una nuova ricerca pubblicata sulla rivista Computers in Human Behavior che suggerisce come l'uso di strumenti di IA come ChatGPT permette di migliorare le prestazioni personali e aziendali ma alla lunga finisca per limitare e distorcere la capacità di valutazione, anche delle proprie prestazioni.

Non siamo Nati Cyborg: una riflessione stultifera in forma di recensione

Una recensione critica che nasce come reazione a un’altra tecno-ottimista pubblicata sulla nave sul libro di Claudo Paolucci: 𝐍𝐚𝐭𝐢 𝐂𝐲𝐛𝐨𝐫𝐠. 𝐂𝐨𝐬𝐚 𝐥’𝐢𝐧𝐭𝐞𝐥𝐥𝐢𝐠𝐞𝐧𝐳𝐚 𝐚𝐫𝐭𝐢𝐟𝐢𝐜𝐢𝐚𝐥𝐞 𝐠𝐞𝐧𝐞𝐫𝐚𝐭𝐢𝐯𝐚 𝐜𝐢 𝐝𝐢𝐜𝐞 𝐝𝐞𝐥𝐥’𝐞𝐬𝐬𝐞𝐫𝐞 𝐮𝐦𝐚𝐧𝐨. Una recensione scritta come autore di 𝐍𝐎𝐒𝐓𝐑𝐎𝐕𝐄𝐑𝐒𝐎 – 𝐏𝐫𝐚𝐭𝐢𝐜𝐡𝐞 𝐮𝐦𝐚𝐧𝐢𝐬𝐭𝐞 𝐩𝐞𝐫 𝐫𝐞𝐬𝐢𝐬𝐭𝐞𝐫𝐞 𝐚𝐥 𝐦𝐞𝐭𝐚𝐯𝐞𝐫𝐬𝐨, un libro nel quale ho messo al centro della riflessione la scomparsa del corpo, del volto (non della faccia che è ovunque) e dello sguardo (ormai sempre chino), celebrando un Nostroverso incarnato, per chiamare alla resistenza dell’umano, contro la (pre)potenza della macchina. Per questo e altro non ho potuto resistere a condividere una riflessione stultifera critica sul libro di Claudio Paolucci. Il libro parla dell’IA come di uno specchio che rivela chi siamo, di una rivelazione del funzionamento dell’intelligenza umana, dentro una continuità evolutiva, di come noi, siamo cyborg per natura. Paolucci vede l’ibridazione come costitutiva dell’umano, io parlo dell’ibridazione tecnologica come di una potenziale alienazione. Quello che segue è il tentativo di riaffermare gli argomenti del mio libro evidenziando ciò che, del libro di Paolucci, non mi ha convinto e non mi sento di condividere.

On Mediation, Responsibility, and Genealogy as Method: A Response to Francesco Varanini

Francesco Varanini’s response to my essay Rethinking Meaning in the Age of AI, published on Stultifera Navis, approaches its subject with a seriousness of ethical intent that deserves recognition. His concern is clearly directed toward responsibility, judgment, and the conditions under which ethical agency remains possible in a technological environment increasingly shaped by automated systems. The difficulty lies elsewhere. His critique repeatedly misplaces the object under discussion, relying on a metaphor of enclosure that substitutes for analysis and attributes to my work positions it explicitly resists.