In Steps to an Ecology of Mind (1972), questa intuizione si traduce in una definizione radicale del pensiero quale rete di differenze che fanno significato. Ogni fenomeno - dall’anatomia di un animale alla struttura grammaticale di una frase, dalla simmetria delle foglie ai processi patologici o alle crisi ecologiche - diventa comprensibile solo all’interno di un sistema complesso di relazioni in cui nulla esiste per conto proprio. In questa prospettiva, i processi naturali non sono sequenze lineari di cause ed effetti, ma «una danza di parti interagenti», e ciò che davvero conta non è il singolo elemento, bensì «il pattern che connette».
Da qui discende che la mente stessa non è localizzabile né posseduta, ma emerge come insieme dinamico di idee interconnesse, distribuite tra corpi, ambienti e sistemi simbolici. Questa visione ecologica della mente, sviluppata poi in Mind and Nature, rifiuta tanto il riduzionismo biologico quanto l’astrazione computazionale. La mente non coincide né con il corpo isolato né con un algoritmo astratto, ma con la struttura che connette il corpo al mondo.
Oggi, nell’epoca delle intelligenze artificiali, questa intuizione torna con forza al centro del dibattito. Quando affidiamo a modelli di machine learning il linguaggio, la decisione o la previsione, la questione non è solo se le macchine “pensino”, ma che cosa intendiamo per pensiero. La mente è un processo biologico radicato in una storia evolutiva e relazionale, oppure una struttura formale replicabile?
1. Mente e macchina
CAB: Oggi attribuiamo agli algoritmi capacità cognitive sempre più avanzate. In che modo, secondo lei, questo cambia il rapporto tra la mente umana e le macchine?
GREGORY BATESON: Le macchine lavorano con dati digitali e regole ben definite. La mente umana, invece, vive di significati che esistono solo dentro un contesto. Per spiegare questa differenza raccontavo spesso una storia. Un uomo chiese a un grande computer: “Calcoli che un giorno penserai come un essere umano?” Dopo aver esaminato i propri programmi, la macchina rispose con una sola frase: “Questo mi ricorda una storia.”
È una risposta ironica, ma molto istruttiva. Gli esseri umani non pensano per singoli dati o istruzioni isolate, ma per racconti e connessioni, intrecciando differenze all’interno di una trama di relazioni. L’intelligenza artificiale può riprodurre le forme del linguaggio, può imitare i suoi schemi, ma senza un contesto narrativo rimane un insieme di simboli che si combinano meccanicamente.
In altre parole, la macchina segue schemi formali; la mente umana, invece, dà senso alle informazioni collocandole in una rete di esperienze, relazioni ed eventi. È in questa differenza - nel rapporto vivo tra informazione e contesto - che si gioca la distanza fondamentale tra il calcolo e il pensiero.
2. Informazione e significato
CAB: Viviamo immersi nei dai, algoritmi, statistiche, flussi informativi continui. Che cosa distingue davvero, secondo lei, l’informazione dal semplice accumulo di dati?
GREGORY BATESON: Un dato, preso isolatamente, non dice nulla. È come una parola estratta da una frase, senza il resto del discorso, resta muta. Io ho proposto di chiamare informazione una differenza che produce una differenza, cioè qualcosa che modifica il comportamento di un sistema, che cambia il corso di ciò che accade. Questo significa che l’informazione non risiede nei numeri, nei segni o nei bit, ma nelle relazioni che questi attivano all’interno di un contesto.
Il significato, infatti, non è contenuto nei messaggi, ma emerge dalla situazione in cui i messaggi circolano. Senza contesto non c’è comunicazione, e senza comunicazione non c’è senso. Le macchine possono confrontare enormi quantità di dati, riconoscere ricorrenze, ordinare contenuti, ma non sanno perché una differenza conta e un’altra no. Nei social media, per esempio, due parole identiche possono avere significati opposti a seconda di chi parla, di chi ascolta, della storia condivisa tra loro. L’algoritmo vede solo la forma, non la relazione.
Per questo i cosiddetti bias automatici non sono semplicemente errori tecnici, sono il riflesso di contesti sociali che la macchina incorpora senza poterli comprendere. L’errore sta nel credere che l’informazione sia neutra e autosufficiente. In realtà, ogni informazione vive dentro un’ecologia. Se separiamo i dati dal loro contesto, non otteniamo conoscenza, ma una simulazione povera del significato.
3. Apprendimento e controllo
CAB: Oggi si parla molto di macchine che “imparano”. Dal suo punto di vista, che differenza c’è tra l’apprendimento umano e quello dei sistemi di intelligenza artificiale?
GREGORY BATESON: La differenza non sta nella velocità né nella quantità di dati, ma nel livello dell’apprendimento. Un sistema può imparare correggendo i propri errori restando dentro uno schema fisso, questo lo chiamavo Learning I. È ciò che fanno la maggior parte delle vostre macchine, aggiustano i parametri, riducono lo scarto, ottimizzano una risposta.
Ma l’apprendimento umano non si ferma lì. Noi impariamo anche come stiamo imparando. Mettiamo in discussione lo schema stesso, cambiamo il modo in cui selezioniamo le alternative, riorganizziamo l’esperienza. Questo è il Learning II. Senza questo secondo livello, il controllo diventa rigido, cieco al contesto.
Un sistema può funzionare bene finché il mondo resta stabile, ma appena il contesto cambia va in crisi. Nei sistemi viventi - e anche nelle macchine più semplici, come un regolatore o un organismo che mantiene l’equilibrio - il vero controllo è sempre un controllo del controllo, una retroazione continua che permette di adattare le regole, non solo le risposte. Quando questo manca, anche un sistema molto sofisticato può andare in risonanza, amplificare l’errore, o collassare. È ciò che vedete quando un modello generalizza male, non ha imparato a riconoscere il contesto, perché non sa riflettere sul proprio modo di apprendere.
4. Doppio legame culturale
CAB: Lei ha descritto il doppio legame come una situazione comunicativa in cui si è costretti a rispondere a messaggi contraddittori senza poterli distinguere o mettere in relazione. Oggi, nella cultura digitale e nei social media, non viviamo qualcosa di simile?
GREGORY BATESON: Sì, e non è un caso. Il doppio legame non nasce dall’errore di un individuo, ma da una struttura comunicativa patologica. Quando una persona riceve due messaggi incompatibili nello stesso contesto - e soprattutto quando le è impedito di nominare la contraddizione - qualunque risposta diventa sbagliata.
Nella clinica lo vedevamo nei bambini, qualunque scelta portava frustrazione e disorientamento. Oggi accade qualcosa di analogo nei sistemi digitali. Da un lato vi si chiede di essere autentici, di “essere voi stessi”; dall’altro vi si impone di adattarvi a regole algoritmiche opache, che premiano comportamenti standardizzati.
Il problema non è psicologico, ma epistemologico. Non sapete più a quale livello del messaggio state rispondendo. Gli algoritmi fondono contesti diversi - relazione, performance, identità, controllo - in un unico flusso indistinto. Se non si impara a distinguere questi livelli, la mente entra in una condizione di stallo, perché perde la possibilità di capire che tipo di risposta è richiesta. È così che il doppio legame smette di essere un fenomeno clinico e diventa una condizione culturale diffusa.
5. Ecologia della mente
CAB: Che cosa significa oggi parlare di ecologia della mente di fronte allo sviluppo dell’intelligenza artificiale?
GREGORY BATESON: Significa ricordare che la mente non vive mai da sola. Non è confinata nel cervello, né tantomeno in una macchina. La mente esiste nelle relazioni, come parte di un ecosistema più ampio fatto di idee, organismi, ambienti e forme di vita. In Steps to an Ecology of Mind ho sostenuto che fenomeni apparentemente lontani - la simmetria degli esseri viventi, la crescita delle piante, la grammatica del linguaggio, fino alle crisi ecologiche - possono essere compresi solo all’interno di un’ecologia delle idee.
Ogni pensiero e ogni tecnologia entrano in una rete complessa che collega individui, società e biosfera. Per questo, quando osservate un sistema di intelligenza artificiale, non dovreste limitarvi a valutarne l’efficienza o i calcoli, dovreste chiedervi in quale sistema di relazioni interviene. Un chatbot, per esempio, non è solo linguaggio artificiale, ma modifica il modo in cui le persone comunicano, apprendono, delegano decisioni, costruiscono fiducia. Produce cambiamenti nel tessuto sociale, non solo output testuali.
L’ecologia della mente ci ricorda che la salute cognitiva non dipende né dalle macchine né dai singoli cervelli, ma dalla qualità delle connessioni che li legano in un unico ambiente mentale condiviso. Quando queste connessioni diventano povere, rigide o non connesse al contesto, anche i sistemi più sofisticati finiscono per diventare fragili.
Bio
Gregory Bateson (1904–1980) è stato uno dei pensatori più originali del Novecento. Antropologo di formazione, ha attraversato ambiti diversi - biologia, etologia, psichiatria, teoria della comunicazione, cibernetica - contribuendo a metterli in relazione quando ancora erano considerati campi separati. Il filo rosso del suo lavoro è stato lo studio delle relazioni tra individui, tra organismi e ambiente, tra mente, linguaggio e natura.
Bateson ha maturato una critica radicale al pensiero lineare e causale. A suo avviso, i fenomeni viventi non possono essere compresi isolando le parti, ma solo osservando i circuiti di feedback, le simmetrie, gli scarti e le ricorsività che tengono insieme un sistema. Da qui nasce la sua definizione di informazione come “differenza che produce una differenza”, e l’idea che la mente non sia localizzabile in un singolo organo, ma distribuita nei processi di relazione.
Questa prospettiva trova una formulazione in Steps to an Ecology of Mind (1972), una raccolta di saggi che attraversano antropologia, psichiatria, biologia ed epistemologia, e in Mind and Nature (1979), dove Bateson esplicita la tesi di un’unità necessaria tra i processi mentali e quelli naturali. In queste opere, la mente viene intesa come un fenomeno ecologico, non qualcosa che appartiene esclusivamente all’essere umano, ma una proprietà emergente dei sistemi complessi viventi.
Per questo Bateson è oggi considerato un precursore del pensiero sistemico e della cibernetica ecologica. Le sue riflessioni anticipano molti dei nodi contemporanei quali la crisi ambientale, i limiti del controllo tecnologico, le patologie della comunicazione, fino alle questioni sollevate dall’intelligenza artificiale. Più che offrire soluzioni, Bateson ci ha lasciato un metodo critico, imparare a vedere le connessioni, riconoscere i contesti, diffidare delle semplificazioni. Un’eredità che, nell’epoca dei sistemi automatici e delle reti globali, appare oggi più attuale che mai.
IIP nasce da una curiosità: cosa direbbero oggi i grandi pensatori del passato di fronte alle sfide dell’intelligenza artificiale? L’idea è di intervistarli come in un esercizio critico, un atto di memoria e, insieme, un esperimento di immaginazione.
Ho scelto autori e intellettuali scomparsi, di cui ho letto e studiato alcune opere, caricando i testi in PDF su NotebookLM. Da queste fonti ho elaborato una scaletta di domande su temi generali legati all’AI, confrontandole con i concetti e le intuizioni presenti nei loro scritti. Con l’aiuto di GPT ho poi generato un testo che immagina le loro risposte, rispettandone stile, citazioni e logica argomentativa.
L’obiettivo è riattivare il pensiero di questi autori, farli dialogare con il presente e mostrare come le loro categorie possano ancora sollecitarci. Non per ripetere il passato, ma per scoprire nuove domande e prospettive, utili alla nostra ricerca di senso.