I came to education through experience, not entitlement—starting at a community college and later earning a Ph.D. from Princeton, where I was awarded the Whiting Fellowship for Distinguished Work in the Humanities. My work has always explored how media and technology shape cognition, authorship, and pedagogy—research I continued as a Brittain Postdoctoral Fellow in Digital Pedagogy at Georgia Tech, where I joined EdTech research with real-world classroom design.
I’ve worked in educational technology since the early 2000s, long before it was widely recognized as “EdTech.” My work blends systems thinking, networked cognition, and inclusive design—bringing academic rigor into scalable, equity-focused platforms. I’ve led education product strategy and learning experience design at the intersection of UX, pedagogy, and content—developing AI-integrated frameworks, SEL-centered tools, and professional learning experiences for real classrooms.
Alongside 15 years of teaching experience across K–12, community college, and university levels, I’ve spent the past decade leading content and product strategy in fast-scaling business environments. I've managed direct reports in content, marketing, and UX; built contributor networks of 200+ specialists; and developed platform-integrated instructional systems serving millions of users. I’ve created scalable content ecosystems and led cross-functional teams across education, pharma, AV, food manufacturing, and design—producing everything from blogs and white papers to instructional video series, product webpages, and multimedia course design.
I specialize in translating complexity into story, aligning instructional integrity with product and business outcomes, and designing learning systems that scale across modalities and users. My approach is shaped by a lifelong commitment to pedagogy, a deep respect for the complexity of learning, and a belief that education products should reflect the minds they serve.
Le competenze di lettura ravvicinata si trasferiscono all'intelligenza artificiale?
C'è stata, di recente, una raffica di proclami ben intenzionati sulle virtù inaspettate dell'educazione letteraria nell'era degli interlocutori algoritmici. Un eccellente pezzo di Nick Potkalitsky, PhD offre quello che potrebbe essere definito un riavvicinamento pedagogico tra le testualità disordinate della narrativa e la peculiare fluidità dell'IA generativa.
L'intelligenza artificiale non parla mai senza esclusioni
La gente parla del pregiudizio dell'IA come se apparisse solo nel momento in cui è uscito, come se si insinuasse semplicemente nella casella di testo durante la sequenza finale della generazione come un retrogusto retorico, come qualcosa aggiunto in ritardo e probabilmente risolvibile con un prompt più intelligente o un filtro più pulito o una pipeline di pre-addestramento più rigorosa, ma ciò che non viene quasi mai detto, almeno in pubblico, è che il pregiudizio satura già nel momento in cui l'informazione diventa informazione. vale a dire il momento in cui qualcosa viene trattato come strutturato, etichettato, recuperabile, modellato in un modo che lo rende disponibile a un sistema progettato per selezionare tra le possibilità e chiamare quella risposta al processo.
L'intelligenza artificiale come strumentalismo automatizzato: come l'intelligenza artificiale mette in atto un'ideologia di utilità sconsiderata
Negli ultimi mesi ho visto una serie di seri tentativi di legare l'intelligenza artificiale all'ideologia, anche se la maggior parte inizia con una curiosa ambivalenza riguardo ai termini coinvolti. L'ideologia, un tempo l'orgoglioso cavallo di battaglia teorico della sinistra del dopoguerra, è diventata una sorta di spettro errante, occasionalmente invocato, raramente definito, ma il più delle volte scambiato per sinonimo di pregiudizio.
AI, pizza prophylaxis and poietics (Intelligenza artificiale, profilassi della pizza e poietica.)
Intelligenza artificiale, profilassi della pizza e poietica. Su ciò che il linguaggio generato dall'intelligenza artificiale non coglie quando simula una voce senza lingua, ovvero senza corpo. On what AI-generated language misses when it simulates voice without a tongue, meaning without a body.
Toward understanding and preventing misalignment generalization
Large language models like ChatGPT don’t just learn facts—they pick up on patterns of behavior. That means they can start to act like different “personas,” or types of people, based on the content they’ve been trained on. Some of those personas are helpful and honest. Others might be careless or misleading. Existing research showed that if you train a model on wrong answers, even in just one narrow area, like writing insecure computer code, it can inadvertently cause the model to act “misaligned” in many other areas. This is called “emergent misalignment.” We studied why this happens.
Writing, Not This Way, But That Way: Writing against AI's Syntactic Simulations of Dialectical Movement
I don’t write to express what I already know. If I did, I’d have nothing to say by the end of the first clause, and the sentence would be left dragging its tail behind it like a dog with nowhere to go. Writing, for me, begins in a state of productive error—less revelation than fumbling, a kind of intellectual squinting in the direction of something not yet visible, let alone nameable. ---- Non scrivo per esprimere ciò che già so. Se lo facessi, non avrei più nulla da dire alla fine della prima frase, e la frase si trascinerebbe dietro come un cane senza un posto dove andare. La scrittura, per me, inizia in uno stato di errore produttivo – più che rivelazione che tentennamento, una sorta di sguardo intellettuale socchiuso verso qualcosa di non ancora visibile, figuriamoci nominabile.
Rilanciare il pensiero incompiuto - Rebranding the unfinished thougtht
Cosa succede a un pensiero incompiuto quando viene espresso dentro un sistema ingegnerizzato per per garantire certezza, prestazioni e leggibilità professionale? Questo testo esplora come pensare in pubblico – particolarmente su piattaforme come Linkedin, richiede una alfabetizzazione costante, ricorsiva, in sintonia non solo con le idee, ma anche con le infrastrutture che le rimodellano.
Escher e il dilemma della mano che ne disegna un'altra, per una riflessione sulla IA
La litografia di Escher di una mano che ne disegna un'altra – che, a sua volta, disegna la prima – offre più di un intelligente paradosso visivo; Mette in scena lo stesso dilemma che ossessiona qualsiasi tentativo di pensare la tecnologia attraverso la teoria, la materialità e il linguaggio. Né la mano è origine né effetto, eppure entrambe sembrano generare l'altra in un gesto che sospende causa e conseguenza, iscrizione e carne, in un ciclo senza fine. Non si tratta semplicemente di un puzzle di rappresentazione, ma di un'allegoria della difficoltà di teorizzare il mondo materiale senza ridurlo al linguaggio o pretendere che il linguaggio possa distinguersi da esso. Siamo sempre già la mano che disegna ed è tirata, situata all'interno del circuito ricorsivo di corpi, codici, concetti e infrastrutture, ognuno dei quali si forma e viene plasmato a sua volta.
AI's just like me - But, like, totally not!
Una cosa che ho iniziato a notare nelle pie chiacchiere che circondano l'IA è la ricorrenza di due impulsi apparentemente distinti – l'identificazione e la differenziazione – che sono abitualmente confusi o messi in contrasto, anche se li ho trovati molto più rivelatori se pensati in tandem, come le difficili fondamenta del nostro tango relazionale co-emergente con la macchina. Mi spiego.
La critica del "pappagallo stocastico"
La critica del "pappagallo stocastico", introdotta da Emily Bender, Timnit Gebru e colleghi nel 2021, è diventata il quadro dominante per respingere le capacità cognitive dell'IA.
Intelligenza artificiale e panico concettuale
Ogni pochi decenni circa, la filosofia si ritrova brevemente rispolverata e invitata a tornare in buona compagnia – non per affetto, ovviamente, ma perché qualcosa nel sistema è andato storto. L'intelligenza artificiale, a quanto pare, ha scatenato una sorta di panico concettuale: la consapevolezza che le graziose parentesi che circondano conoscenza, significato e soggetto stanno perdendo, e nessuna strategia di innovazione sembra riuscire a fermare il flusso. Gli algoritmi hanno superato i framework, e così i filosofi vengono convocati, come vigili del fuoco a cui viene chiesto di spiegare la struttura molecolare del fumo.
Are we designing AI for control, or for coexistence? The relational ethics of Abeba Birhane
Nei miei sforzi per sviluppare un'etica relazionale per l'IA, il lavoro di Abeba Birhane è stato centrale. Scienziato cognitivo e teorico della decolonizzazione, la scrittura di Birhane si muove fluidamente tra i domini – filosofia della mente, teoria critica della razza, etica dei dati – ma rimane focalizzata su una domanda epistemica fondamentale: quali tipi di conoscenza e quali forme di vita riproducono i sistemi di intelligenza artificiale? E in base a quali presupposti sull'umanità, la cognizione e il controllo?
What if AI isn't just helping us write - but subtly reconditioning how writing becomes legible, recognizable, and valued?
La questione educativa non è semplicemente se sia ancora necessario insegnare a scrivere, dipingere o comporre. Si tratta di come insegnare agli studenti a riconoscere quando il loro processo creativo viene sottilmente ottimizzato verso impostazioni predefinite meccaniche, quando il sistema sta smussando la difficoltà, l'ambiguità o l'invenzione in nome della fluidità.
Mark Hansen’s Feed-Forward: On the Future of Twenty-First-Century Media
Il libro di Mark Hansen Feed-Forward: On the Future of Twenty-First-Century Media offre uno degli impegni più sostenuti e rigorosi su come i sistemi tecnici rimodellano le condizioni della percezione, della cognizione e dell'esperienza.
Dove risiede veramente il peso etico dell'IA?
Nel design, nell'uso o nel mondo che li produce entrambi?
The Cognitive Turn: Locating Cognitive Difference in the Age of AI
Why AI Discourse Needs N. Katherine Hayles’s Theory of Cognition
𝐖𝐡𝐞𝐧 𝐖𝐫𝐢𝐭𝐢𝐧𝐠 𝐒𝐭𝐨𝐩𝐬 𝐓𝐡𝐢𝐧𝐤𝐢𝐧𝐠: Automation, Authorship, and the Ethics of Conceptual Rigor from Mark Twain to AI
This essay examines the growing disconnect between language and thought in contemporary discourse, particularly in the context of EdTech, AI, and academic theory. Beginning with reflections on the author’s recent engagement with theoretical dialogue on LinkedIn—a platform marked by performance-driven visibility rather than conceptual depth—it traces how theoretical vocabulary has increasingly come to function as professional shorthand, signaling intellectual alignment while often bypassing the labor of thinking. Drawing on examples from education discourse and the historical figure of Mark Twain—whose engagement with the typewriter and notions of automatic writing challenged humanist ideas of authorship—the essay situates current anxieties around AI-generated language within a longer tradition of mechanical mediation. Rather than framing authorship as a question of human versus machine, the essay argues for conceptual rigor as the true index of intellectual integrity. It calls for a renewed attention to friction, difficulty, and specificity in writing—not as barriers to communication, but as signs that thought is actively being done.
The cognitive turn: locating the cognitive difference in the age of AI
There’s a certain bleak ingenuity to the idea that our best response to AI’s unsettling fluency is to manually downgrade its pronouns. A recent Boston Globe op-ed recommends that we stop referring to generative systems as coworkers or collaborators, and instead swap the “o” for a zero: c0workers, c0companions. It’s not language that’s the problem here—it’s the use of language to shut down thought just when it’s most needed. Rather than open space for describing what resists classification, this symbolic tweak tries to pin the world back into place with a single keystroke.