È diventato comune per i sistemi educativi, le aziende tecnologiche e gli organismi politici strombazzare la necessità di "alfabetizzare l'intelligenza artificiale". Ho scritto altrove di come questo appello sia stato raccolto da figure con scarse basi nella pedagogia digitale o nella teoria dell'educazione. Operando sotto una sorta di illusione Dunning-Kruger indotta dall'intelligenza artificiale, hanno ridefinito l'alfabetizzazione come un insieme di tecniche strumentali: come sollecitare, come rilevare le allucinazioni, come evitare il plagio. Un repertorio superficiale di come procedurali senza alcun fondamento nei perché. Quello che stiamo vedendo non è l'alfabetizzazione, ma il ritorno dell'apprendimento meccanico, ora applicato all'interfaccia.
Essere alfabetizzati in qualcosa non significa semplicemente usarlo. Consiste nel comprendere le condizioni in cui opera, i sistemi che modella e da cui è modellato, e le formazioni ideologiche che riflette e produce. E in questo contesto, il pensiero sistemico diventa fondamentale.
Senza il pensiero sistemico, l'IA appare come uno strumento, un prodotto o un insieme di capacità isolate. Con essa, l'intelligenza artificiale diventa leggibile come un agente dinamico incorporato in sistemi tecnici, cognitivi, economici, sociali ed ecologici interconnessi. Il pensiero sistemico ci permette di vedere l'IA oltre il modello transazionale di un dispositivo input-output per comprendere l'IA come un attore ricorsivo, modificando le condizioni stesse in cui pensiamo, decidiamo e ci relazioniamo.
Il pensiero sistemico è una modalità di analisi e comprensione che si concentra su relazioni, interdipendenze e interazioni dinamiche piuttosto che su parti isolate o catene lineari di causa-effetto. Tratta i fenomeni non come unità discrete, ma come componenti di sistemi complessi e adattivi il cui comportamento emerge da cicli di feedback, condizioni contestuali e causalità ricorsiva.
In un quadro di pensiero sistemico, il significato, il comportamento e i risultati non sono riducibili a singoli attori o eventi; Sono co-costruiti attraverso reti di influenza che includono elementi sociali, tecnici, ecologici e cognitivi. È importante sottolineare che il pensiero sistemico mette in primo piano il ruolo della struttura nella produzione del comportamento: si chiede non solo cosa sta succedendo, ma perché questo sistema si comporta in un certo modo e quali condizioni devono cambiare affinché emergano risultati diversi.
Quando applicato all'intelligenza artificiale, il pensiero sistemico rivela come le tecnologie siano incorporate all'interno di assemblaggi più ampi (sistemi economici, infrastrutture di dati, istituzioni educative, organismi di regolamentazione, ecologie planetarie) e come i sistemi di intelligenza artificiale partecipino alla formazione e all'essere modellati da quelle stesse strutture.
Una spiegazione completa del pensiero sistemico e della sua rilevanza per l'alfabetizzazione dell'IA va oltre lo scopo di questo post. Ma si spera che questo generi fili di scambio che, come in ogni sistema, abbiano il potenziale per portare a nuove intuizioni emergenti.
Original English version
Why systems thinking should be foundational to critical AI literacy .
It’s become common for education systems, tech firms, and policy bodies to trumpet the need for “AI literacy.” I’ve written elsewhere about how this call has been taken up by figures with little grounding in digital pedagogy or educational theory. Operating under a kind of AI-induced Dunning-Kruger delusion, they’ve redefined literacy as a set of instrumental techniques: how to prompt, how to detect hallucination, how to avoid plagiarism. A shallow repertoire of procedural hows with no grounding in the whys. What we’re seeing is not literacy, but the return of rote learning—now applied to the interface.
To be literate in something is not merely to use it. It is to understand the conditions under which it operates, the systems it shapes and is shaped by, and the ideological formations it both reflects and produces. And in this context, systems thinking becomes foundational.
Without systems thinking, AI appears as a tool, a product, or a set of isolated capabilities. With it, AI becomes legible as a dynamic agent embedded in interlocking technical, cognitive, economic, social, and ecological systems. Systems thinking allows us to see AI beyond the transactional model of an input-output device to an understanding of AI as a recursive actor—modifying the very conditions under which we think, decide, and relate.
Systems Thinking is a mode of analysis and understanding that focuses on relationships, interdependencies, and dynamic interactions rather than isolated parts or linear cause-effect chains. It treats phenomena not as discrete units but as components of complex, adaptive systems whose behavior emerges from feedback loops, contextual conditions, and recursive causality.
In a systems-thinking framework, meaning, behavior, and outcomes are not reducible to individual actors or events; they are co-constructed across networks of influence that include social, technical, ecological, and cognitive elements. Importantly, systems thinking foregrounds the role of structure in producing behavior—it asks not just what is happening, but why this system behaves the way it does, and what conditions must change for different outcomes to emerge.
When applied to AI, systems thinking reveals how technologies are embedded within larger assemblages—economic systems, data infrastructures, educational institutions, regulatory bodies, planetary ecologies—and how AI systems participate in shaping and being shaped by those very structures.
A full explanation of systems thinking and its relevance to AI literacy is beyond the scope of this post. But hopefully this will generate threads of exchange that, as in any system, have the potential to lead to emergent new insight.