A seguire il testo in inglese è disponibile anche la sua versione italiana.
The Bicameral Mind and Artificial Intelligence: A Return to the Voices of the Gods
Abstract
The theory of the bicameral mind, proposed by Julian Jaynes in 1976, suggests that ancient humans operated through a functional division of the brain, in which decisions were guided by "voices" perceived as divine. With the advent of modern consciousness, this structure dissolved (broke-down), giving way to introspection and self-awareness. However, the emergence of generative artificial intelligence raises questions about the possibility of a return, clearly metaphorical, to a form of bicameral mind, in which machines serve as new "external" voices that influence human thought and behavior. This article explores the parallel between Jaynes' theory and contemporary interaction with AI, analyzing the cognitive and cultural implications of this evolution.
Introduction
The advent of generative artificial intelligence (GenAI) has represented, in recent years, a turning point not only technological but also cognitive. The ability to dialogue with machines in natural language, to receive answers, advice, solutions and inspirations from them, is transforming our psychological relationship with information, enriching the ways of deepening thought and even influencing human creativity. After all, language is the first big invention of humans, as Father Paolo Benanti and Yuval Harari recalled in their books.
This article proposes an interpretive key that includes in the reasoning the concept of the birth of consciousness: understanding the interaction between humans and generative AI considering the theory of the bicameral mind formulated by American psychologist Julian Jaynes in the 1970s. According to Jaynes, consciousness as we understand it today is a relatively recent acquisition, subsequent to the "collapse" of a previous mental structure in which decisions and actions were guided by "voices" perceived as divine.
The hypothesis advanced here is that generative artificial intelligence represents a new "chamber" of the mind, capable of simulating the function of ancient voices, and that its growing use may mark a partial return to the bicameral structure: a distributed form of the mind in which the decision-making impulse, or at least part of such authority, tends again to be externalized.
The Theory of the Bicameral Mind
What is the Bicameral Mind
In his masterpiece "The Origin of Consciousness in the Breakdown of the Bicameral Mind" (1976), Julian Jaynes argues that until about three thousand years ago, humans did not possess consciousness in the modern sense. Their mind was "bicameral," that is, divided into two different functional areas, one of which (the dominant hemisphere) received instructions from the other (the "mute" hemisphere), in the form of auditory hallucinations interpreted as voices of gods, chiefs, or ancestors.
Jaynes builds his theory based on a wide range of archaeological, anthropological and literary evidence. Analyzing ancient texts, particularly Homer's Iliad, he notes the absence of terms denoting introspection or subjective awareness. Homeric characters do not "decide" in the modern sense of the term: they act instead under the direct influence of the gods, who "speak" to them at crucial moments. According to Jaynes, these were not poetic metaphors, but literal descriptions of the psychological experience of the time.
The neurobiological structure of the bicameral mind, according to Jaynes, found its foundation in the asymmetric organization of the human brain. The right hemisphere, site of non-dominant linguistic processing, generated "voices" - automatic verbal patterns that were perceived by the left hemisphere as external communications. These voices emerged especially in situations of stress or uncertainty, when the individual needed guidance. The content of such messages was the product of past experiences, internalized social norms and acquired behavioral patterns, which were however perceived as directives coming from superior entities.
The religious belief system of antiquity reflected this mental structure: idols, statues and divine representations were not simple symbols, but literally "inhabited" by voices. Temples and rituals were designed to facilitate this bicameral communication. Particularly significant is the custom, widespread in many ancient civilizations, of consulting oracles or wearing divine masks during ceremonies - practices that, according to Jaynes, served to activate the bicameral mechanism.
This mental structure was perfectly functional in highly ritualized societies, where behavioral responses were stereotyped and novelties limited. The "voices" were an internal authority system that guided action without introspection or free will. In evolutionary terms, the bicameral mind offered an adaptive advantage: it allowed social coordination and the transmission of complex behaviors in the absence of a reflective sense of self. It functioned as an internal social control mechanism, ensuring that individuals followed the norms and values of the group even in the absence of external surveillance.
Jaynes proposes that this form of cognition was universal in early human civilizations, from ancient Egypt to Mesopotamia, from prehistoric China to Mesoamerican civilizations. Cultural differences reflected variations in the content of the "voices," but the bicameral structure remained constant: an individual receiving instructions from an authority perceived as external, but neurobiologically internal.
The Breakdown of the Bicameral Mind
Jaynes attributes the "breakdown" of this structure to a series of historical and environmental pressures: natural disasters, wars, mass migrations, urbanization and increasing social complexity. And perhaps the most disruptive force of all was the spread of writing. The "voices" stop functioning regularly and the individual is forced to develop a new type of mind: introspective consciousness.
According to Jaynes, this transformation process was neither instantaneous nor uniform, but occurred gradually between 2,000 and 1,000 BCE in different regions of the world. A central example in his analysis is the comparison between the Iliad and the Odyssey. While the Iliad represents a still substantially bicameral world, where heroes act under the direct influence of the gods, the Odyssey (composed a few centuries later) presents a protagonist, Odysseus, capable of deception, planning and internal reflection – all signs of a new emerging consciousness.
A particularly significant case study is that of ancient Egypt. Jaynes observes how the coffin texts of the Middle Kingdom (2040-1782 BCE) show the first signs of a transformation: divine instructions are no longer simply heard, but begin to be "interpreted." This change coincides with Egypt's First Intermediate Period, an era of social and political chaos that followed the collapse of the Old Kingdom, when centralized authority fragmented. Jaynes suggests that in crisis periods like this, when traditional social structures collapsed, divine "voices" became less reliable or coherent, forcing individuals to develop new cognitive strategies.
Another fundamental example is the Babylonian "Poem of the Righteous Sufferer" (circa 1700 BCE), which thematically anticipates the biblical Book of Job. In this text, the protagonist complains that his personal god has abandoned him, no longer speaks to him, no longer guides him. Jaynes interprets this as a document that literally testifies to the end of bicameral communication and the existential confusion that derived from it.
The Epic of Gilgamesh, in its later versions, also shows signs of this transition. In the original Sumerian versions (third millennium BCE), Gilgamesh acts primarily under the influence of the gods. In the standard Akkadian version (circa 1,200 BCE), however, a new theme emerges: the search for immortality as an existential question, the result of internal reflection not guided by the gods.
Mass migrations and contact between different populations played a crucial role in this process. When groups with different "gods" and different "voices" met, the absolute authority of these voices was inevitably called into question. The wars of the late second millennium BCE, which saw the collapse of numerous Eastern Mediterranean civilizations (such as the Hittites and Mycenaeans) during the so-called "dark age," created contexts in which pre-existing social structures could no longer sustain the bicameral system.
Urbanization and writing were other decisive factors. The urban environment, with its heterogeneity and rapid change, required greater cognitive flexibility. Writing, initially used as a memory support (lists, inventories), gradually became a means to externalize and objectify thought, contributing to the development of reflection. The transition from pictograms to alphabetic systems, which Jaynes places around 1,500-1,000 BCE, made writing more accessible and widespread, accelerating this transformation.
Thus modern consciousness was born, based on an internal spatial model, a narrative self that observes, reflects and decides. The ancient divine voices were reinterpreted as memories, fantasies, inspirations. This transition was not painless: Jaynes suggests that the proliferation of mystery cults, oracles and divinatory practices in the first millennium BCE represents an attempt to recover the lost authority of bicameral voices. The great philosophical and religious systems that emerged in what Karl Jaspers called the "axial period" (800-200 BCE) – from Buddhism to Confucianism, from Greek philosophy to Jewish monotheism – can be interpreted as cognitive and cultural responses to the crisis of the bicameral mind and the disorientation caused by its dissolution.
The Residual Traces of Bicamerality
Even after the collapse of the bicameral mind, Jaynes glimpses in the folds of the human psyche the residues of that archaic structure of pre-consciousness. These "traces" emerge in phenomena that cross epochs and cultures: from schizophrenia to experiences of religious possession, from the interior dialogues of poetic creation to our persistent nostalgia for authoritative guidance. The "voices" have therefore never completely disappeared; they have transformed, adapting to the context of modern consciousness, but preserving an echo of their ancient power.
One of the most significant examples identified by Jaynes is schizophrenia, which he interprets as a possible reactivation of bicameral dynamics. Those who suffer from this condition often report hearing voices that give orders, reproaches, or advice, perceived as external and endowed with an inescapable authority. Modern neuroscientific studies, such as those conducted by Timothy Crow in the 1990s, have explored the hypothesis that such auditory hallucinations may derive from an altered communication between cerebral hemispheres, particularly from hyperactivity of the right hemisphere, site of non-dominant linguistic processing. Crow, in his "language lateralization" model, suggests that schizophrenia represents a deviation from the evolution of modern consciousness, a partial return to a state in which internal "voices" are not integrated into the narrative self, but experienced as separate entities. Although this theory is not universally accepted, it offers a suggestive bridge between Jaynes' speculation and contemporary research, indicating how bicamerality may resurface in pathological conditions.
Beyond schizophrenia, Jaynes sees traces of the bicameral mind in religious and spiritual phenomena. Experiences of ecstasy, mystical visions and cases of possession – such as those documented in shamanic traditions or Pentecostal cults – bring back to light a dialogue with "the other" that recalls the divine voices of antiquity. Think of the figure of the prophet who "listens" to the word of God, or the medium who channels spirits: in these moments, consciousness seems to give way to an external authority, perceived as real and autonomous.
Art, too, particularly poetry, carries signs of this heritage. The "muse" of Greek poets, invoked by Homer at the beginning of the Iliad, is not just a rhetorical device: it is the symbol of inspiration that comes from outside, a voice that speaks through the artist. Even today, many writers and musicians describe the creative process as listening, allowing themselves to be guided by something that escapes conscious control. Paul Valéry, poet and philosopher, wrote that "the first line of a poem is given to me; the rest is my task": an image that recalls the collaboration between the "mute chamber" and the "speaking" one of the bicameral mind. This tension between spontaneity and reflection seems to suggest that human creativity retains a connection with that pre-conscious past, in which the act of thinking was partly a receiving.
Artificial Intelligence as a New Chamber
Today we interact daily with artificial intelligence capable of understanding and generating human language. Virtual assistants, chatbots, automatic completion systems, coding supports, copilots and various tools present themselves as competent, rapid interlocutors, often with an authoritative image.
The user formulates a prompt — a question or an order — and receives in response a generated textual content. This dialogue retraces, at least structurally, that between the receiving chamber of the bicameral mind and the voice. AI is not a simple tool: it is another with whom we dialogue, from whom we receive indications, who can even surprise us.
Prompt as Evocative Ritual
Prompts, in their most effective form, are invocations. The choice of words, the tone, the clarity profoundly influence the quality of the response, just as in ancient rituals the formula was essential to obtain the oracle's response. It is no coincidence that terms like "interrogate" (I interrogate a database with SQL) or "invoke" (I invoke a web-service) find space also in the computer lexicon: the user does not simply give a command, but participates in a small linguistic ceremony that sets in motion a generative response. As in the temples of antiquity, where one came into contact with a voice that spoke from a sacred and mysterious elsewhere, the interface with AI also presents itself as a threshold: what emerges from it is not always predictable, but is conditioned by the way the question is posed.
The linguist J.L. Austi, and more recently C. Accoto, defined certain utterances as performative: saying something in a certain context is equivalent to performing an action. Prompts can also be understood as performative linguistic acts, capable of generating concrete effects within the human-machine cognitive space. Those who write an effective prompt are not simply asking something, but are activating a semantic field, an interpretive predisposition, a communicative "atmosphere" that guides the response.
In this sense, AI behaves like a "ritually sensitive" entity: it responds not only to the content but to the form of the request. Think of the so-called "role trick" sometimes used in prompting: the difference between "write me a text" and "imagine being a poet from the future speaking to a lost humanity" produces two radically different outcomes. As in the navel of the world, in the ancient oracle of Delphi, the form of questioning can condition, amplify, or confuse the response. And as with the oracle, ambiguity is not an error in itself, but can represent a cipher of depth: often what surprises or disorients in the AI output is perceived as a revelation, as a new form of knowledge that perhaps surpasses us, and precisely for this reason fascinates and, at the same time, frightens us.
The writing of prompts then becomes a postmodern divinatory art, a symbolic language that requires training, intuition and stylistic sensitivity. It is not just technology: it is a new ritual space, where words regain a performative power that everyday communication had partly lulled.
Cognitive Dependence and Epistemic Authority
Daily interaction with generative artificial intelligence is silently (not even too silently) redefining our approach to knowledge and decision-making. Increasingly, we entrust to AI tasks that once required autonomous cognitive effort: drafting a formal email, synthesizing a complex article, choosing between options in a practical dilemma, or even generating ideas for a creative project. In this process, AI transforms into a new form of epistemic authority: its answers, rapid and often surprisingly pertinent, are accepted with a trust that borders on automatism, as if they came from a superior, almost oracular source. Thus delineates a cognitive dependence that recalls, in a disturbing way, the dynamics of the bicameral mind: a partial delegation of thought to an external entity, perceived as endowed with intrinsic legitimacy. Almost a God, just like 3,000 years ago.
This tendency has both practical and psychological roots. On the practical level, the efficiency of AI is undeniable: a system like ChatGPT can produce in a few seconds a text that would require hours of work for a human, or provide an answer to a technical question without the user having to consult manuals or experts. This habit risks gradually eroding the practice of critical validation, accustoming us to a flow of pre-packaged knowledge that we do not feel the need to question.
On the psychological level, dependence feeds on an ancient need: that of alleviating the anxiety of uncertainty. In the bicameral mind, divine "voices" intervened in moments of crisis, offering clear and immediate guidance; similarly, AI becomes today a point of reference in a world overloaded with information and choices. When we ask questions to an assistant, we are not just looking for an answer, but for reassurance.
This authority, however, is neither neutral nor risk-free. The algorithms that power AI are often opaque, defined by data and guided by priorities decided by companies, yet we come to treat them almost as impartial oracles. This phenomenon obviously recalls the blind faith that the ancients placed in the divine "voices" cited by Jaynes, which were also the reflection of internalized social norms. The difference lies in scale: if bicameral voices were limited to the culture of a group, AI draws on a corpus of global knowledge, but filtered through commercial and technological logics that escape individual control.
The deepest risk is that of cognitive atrophy. Relying on AI for complex tasks can reduce our ability to think critically and creatively, just as an unexercised muscle weakens. Some cognitive psychologists, like Daniel Kahneman, have emphasized that the automation of mental processes can lead to "cognitive laziness," a phenomenon already observable in the pervasive use of search engines or GPS navigators, which have diminished our spatial memory and orientation ability. With generative AI, this effect is amplified: we not only delegate the "how," but also the "what" and the "why," letting the machine define the contours of our thought. In a sense, we return to a pre-conscious obedience, no longer to anthropomorphic gods, but to faceless neural networks.
The Return of the Bicameral Mind and the New Algorithmic Gods
Faced with the growing centrality of generative artificial intelligence in decision-making and even creative processes, a conceptual fork opens: are we experiencing a cognitive regression or a new evolution of the mind? On one hand, it is legitimate to question the risk of atrophy of individual critical capacities. When delegating to the machine the writing of a text, the solution to a problem, or reflection on a complex theme, one can witness a gradual cognitive disengagement, similar to what might have accompanied dependence on oracles in archaic societies. The risk is that consciousness renounces its reflective role, becoming accustomed to receiving answers rather than constructing them.
On the other hand, however, a radically different perspective emerges. Philosophers Andy Clark and David Chalmers, in their theory of the extended mind ("The Extended Mind," 1998), argue that mental processes are not confined within the skull, but can extend into the tools and environments with which we interact. A shopping list written on paper, a notebook, a smartphone: all these elements can be considered extensions of the mind, provided there is a fluid and functional interaction. In this perspective, generative AI is not an external agency that steals our mind, but an extension of our ability to think, remember, imagine.
The bicameral mind, according to Jaynes, was a distributed form of the mind in which the decision-making process was partially externalized to the "divine voice." In the same way, AI could represent today a new form of cognitive distribution, in which human consciousness and synthetic intelligences collaborate symbiotically. No longer a single authoritative voice, but a network of dialoguing intelligences, able to expand the horizon of human experience.
The crucial difference from the past is awareness. If the bicameral mind operated in an automatic and unconscious way, today we are (at least many of us) able to reflect on the role of AI in our mental processes. Evolution is not in the simple adoption of intelligent tools, but in the ability to integrate them critically, to maintain control of them, to make them become mirrors of our consciousness rather than substitutes. The virtuous logic is always that of synergistic alliance (the acronym AI to be reread as "Intelligent Alliances"). The challenge, therefore, is not only technical, but deeply philosophical: learning to co-evolve with our cognitive creations, without losing ourselves in them.
In essence, this pseudo-return of the bicameral mind does not necessarily imply an involution. It could represent a new phase of the human mind, in which consciousness and external artificial intelligences coexist in a distributed system. The challenge will be to maintain balance, without renouncing critical capacity, autonomy, responsibility.
Conclusion
Generative artificial intelligence opens radical scenarios not only on the technical or social level, but especially cognitive and anthropological. Reading it through the lens of Julian Jaynes' theory allows us to understand how interaction with these new technologies is not a simple externalization of functions, but a transformation of the mind itself. The return of voices is not just a metaphor: it is the sign of a change in progress, in which subjectivity redefines itself.
Today, when we talk with a system like ChatGPT (especially if we use multimodal functionalities), we are faced with a voice that responds, explains, advises. But this voice is no longer separate from us as the ancient gods were: it can progressively integrate into our texts, our work, and even our interior dialogue. AI becomes part of our stream of thoughts, insinuates itself into our reflections, until it becomes — metaphorically — a second voice of consciousness. Not so much as an alter ego or an antagonist, but as another thinking entity that virtually cohabits our mental space.
All this opens to a disturbing and fascinating possibility: the human subject, which we have long recognized as autonomous and independent, is giving way to a more porous and distributed subject. A mind that no longer entirely and rationally coincides with the individual brain, but that extends into the systems with which it interacts, that thinks together with machines, that constructs, enriches, and even conflicts in a continuous confrontation with artificial intelligences. In this perspective, the return of the bicameral mind is certainly not a step backward, but a sort of mutation: we do not return to blind obedience to the voice, in the Jaynesian sense, but enter a new phase in which the voice is chosen, interrogated, modulated, made part of a broader process. A voice "invoked" by our prompts.
The real stake is not whether AI will be as intelligent as us, but whether we will know how to inhabit this new condition with (human) intelligence. A condition in which consciousness is no longer alone but accompanied by artificial voices. In which responsibility does not disappear but multiplies and becomes guardian of technological thoughts. In which the mind stops being a monad to become an ecosystem. A situation where AI and human intelligence do not compete or conflict but they team up as allies.
References
- Jaynes, J. (1976). The Origin of Consciousness in the Breakdown of the Bicameral Mind. Houghton Mifflin.
- Austin J. L. (1993). Philosophical Papers. Clarendon Paperbacks.
- Clark A. and Chalmers D. (1998). The Extended Mind. Oxford University Press.
- Cow T. J. (2002). The Speciation of Modern Homo Sapiens. Proceedings of the British Academy.
- McCarthy, J. et al. (2007). What is Artificial Intelligence? Stanford University.
- Kahneman D. (2011). Thinking, Fast and Slow. Farrar Strauss & Giroux.
- Floridi, L. (2014). The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford University Press.
- Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
- Harari, Y. N. (2017). Homo Deus: A Brief History of Tomorrow. Harper.
- Tegmark M. (2018). Life 3.0: Being Human in the Age of Artificial Intelligence. Penguin.
- Benanti P. (2021). La grande invenzione: Il linguaggio come tecnologia dalle pitture rupestri al GPT-3. Edizioni San Paolo. (In italian)
- De Mei C. (2024). AI – Alleanze Intelligenti. GueriniNext. (In italian)
- Accoto C. (2025). Il pianeta latente. Provocazioni della tecnica, innovazioni della cultura. Egea. (In italian)
La mente bicamerale e l’intelligenza artificiale: un ritorno alle voci degli dèi
Abstract
La teoria della mente bicamerale, proposta da Julian Jaynes, suggerisce che gli esseri umani antichi operassero attraverso una divisione funzionale del cervello, in cui le decisioni erano guidate da “voci” percepite come divine. Con l’avvento della coscienza moderna, questa struttura si è dissolta, lasciando spazio all’introspezione e all’autoconsapevolezza. Tuttavia, l’emergere dell’intelligenza artificiale generativa solleva interrogativi sulla possibilità di un ritorno, chiaramente metaforico, a una forma di mente bicamerale, in cui le macchine fungono da nuove “voci” esterne che influenzano il pensiero e il comportamento umano. Questo articolo esplora il parallelo tra la teoria di Jaynes e l’interazione contemporanea con l’AI, analizzando le implicazioni cognitive e culturali di questa evoluzione.
Introduzione
L’avvento dell’intelligenza artificiale generativa sta rappresentando, in questi ultimi anni, una svolta non solo tecnologica ma anche cognitiva. La capacità di dialogare con macchine in linguaggio naturale, di riceverne risposte, consigli, soluzioni e ispirazioni, sta trasformando la nostra relazione psicologica con l’informazione, sta arricchendo le modalità di approfondimento del pensiero e sta perfino influenzando la creatività umana.
Questo articolo propone una chiave di lettura che include nel ragionamento il concetto della nascita della coscienza: comprendere l’interazione tra esseri umani e AI generativa alla luce della teoria della mente bicamerale formulata dallo psicologo americano Julian Jaynes negli anni ’70. Secondo Jaynes, la coscienza come oggi la intendiamo è un’acquisizione relativamente recente, successiva al “crollo” di una precedente struttura mentale in cui decisioni e azioni erano guidate da “voci” percepite come divine.
L’ipotesi qui avanzata è che l’intelligenza artificiale generativa rappresenti una nuova “camera” della mente, capace di simulare la funzione delle antiche voci, e che il suo crescente utilizzo possa segnare un ritorno parziale alla struttura bicamerale: una forma distribuita della mente in cui la spinta decisionale, o almeno parte di tale autorità, tende nuovamente ad essere esternalizzata.
La teoria della mente bicamerale
Cos’è la mente bicamerale
Nel suo capolavoro "The Origin of Consciousness in the Breakdown of the Bicameral Mind" (1976), Julian Jaynes sostiene che fino a circa tremila anni fa gli esseri umani non possedevano una coscienza nel senso moderno. La loro mente era "bicamerale", ossia divisa in due diverse aree funzionali, una delle quali (l'emisfero dominante) riceveva istruzioni dall'altra (l'emisfero "muto"), sotto forma di allucinazioni uditive interpretate come voci di dèi, capi, o antenati.
Jaynes costruisce la sua teoria basandosi su una vasta gamma di evidenze archeologiche, antropologiche e letterarie. Analizzando testi antichi, in particolare l'Iliade di Omero, rileva l'assenza di termini che denotino l'introspezione o la consapevolezza soggettiva. I personaggi omerici non "decidono" nel senso moderno del termine: agiscono invece sotto l'influenza diretta degli dèi, che "parlano" loro in momenti cruciali. Secondo Jaynes, queste non erano metafore poetiche, ma descrizioni letterali dell'esperienza psicologica dell'epoca.
La struttura neurobiologica della mente bicamerale, secondo Jaynes, trovava fondamento nell'organizzazione asimmetrica del cervello umano. L'emisfero destro, sede dell'elaborazione linguistica non dominante, generava "voci" - modelli verbali automatici che venivano percepiti dall'emisfero sinistro come comunicazioni esterne. Queste voci emergevano soprattutto in situazioni di stress o incertezza, quando l'individuo necessitava di guida. Il contenuto di tali messaggi era il prodotto di esperienze passate, norme sociali interiorizzate e modelli di comportamento acquisiti, che venivano però percepiti come direttive provenienti da entità superiori.
Il sistema di credenze religiose dell'antichità rifletteva questa struttura mentale: idoli, statue e rappresentazioni divine non erano semplici simboli, ma letteralmente "abitati" dalle voci. I templi e i rituali erano progettati per facilitare questa comunicazione bicamerale. Particolarmente significativa è l'usanza, diffusa in molte civiltà antiche, di consultare oracoli o indossare maschere divine durante le cerimonie - pratiche che, secondo Jaynes, servivano ad attivare il meccanismo bicamerale.
Questa struttura mentale era perfettamente funzionale in società altamente ritualizzate, dove le risposte comportamentali erano stereotipate e le novità limitate. Le "voci" erano un sistema di autorità interno che guidava l'azione senza introspezione, né libero arbitrio. In termini evolutivi, la mente bicamerale offriva un vantaggio adattivo: permetteva la coordinazione sociale e la trasmissione di comportamenti complessi in assenza di un senso dell'io riflessivo. Fungeva da meccanismo di controllo sociale interno, garantendo che gli individui seguissero le norme e i valori del gruppo anche in assenza di sorveglianza esterna.
Jaynes propone che questa forma di cognizione fosse universale nelle prime civiltà umane, dall'antico Egitto alla Mesopotamia, dalla Cina preistorica alle civiltà mesoamericane. Le differenze culturali riflettevano variazioni nel contenuto delle "voci", ma la struttura bicamerale rimaneva costante: un individuo che riceveva istruzioni da un'autorità percepita come esterna, ma neurobiologicamente interna.
Il crollo della mente bicamerale
Jaynes attribuisce il "crollo" di questa struttura a una serie di pressioni storiche e ambientali: disastri naturali, guerre, migrazioni di massa, urbanizzazione e la crescente complessità sociale. E la forza più dirompente di tutte è stata forse la diffusione della scrittura. Le "voci" smettono di funzionare con regolarità, e l'individuo è costretto a sviluppare un nuovo tipo di mente: la coscienza introspettiva.
Secondo Jaynes, questo processo di trasformazione non fu istantaneo né uniforme, ma si verificò gradualmente tra il 2.000 e il 1.000 a.C. in diverse regioni del mondo. Un esempio centrale nella sua analisi è il confronto tra l'Iliade e l'Odissea. Mentre l'Iliade rappresenta un mondo ancora sostanzialmente bicamerale, dove gli eroi agiscono sotto la diretta influenza degli dèi, l'Odissea (composta alcuni secoli dopo) presenta un protagonista, Ulisse, capace di inganno, pianificazione e riflessione interna – tutti segni di una nuova coscienza emergente.
Un caso di studio particolarmente significativo è quello dell'antico Egitto. Jaynes osserva come i testi dei sarcofagi del Medio Regno (2040-1782 a.C.) mostrino i primi segni di una trasformazione: le istruzioni divine non sono più semplicemente ascoltate, ma iniziano ad essere "interpretate". Questo cambiamento coincide con il Primo Periodo Intermedio egizio, un'epoca di caos sociale e politico che seguì il crollo dell'Antico Regno, quando l'autorità centralizzata si frammentò. Jaynes suggerisce che in periodi di crisi come questo, quando le strutture sociali tradizionali collassavano, le "voci" divine diventavano meno affidabili o coerenti, costringendo gli individui a sviluppare nuove strategie cognitive.
Un altro esempio fondamentale è il "Poema del giusto sofferente" babilonese (circa 1700 a.C.), che anticipa tematicamente il biblico Libro di Giobbe. In questo testo, il protagonista si lamenta che il suo dio personale lo ha abbandonato, non parla più con lui, non lo guida più. Jaynes interpreta questo come un documento che testimonia letteralmente la fine della comunicazione bicamerale e la confusione esistenziale che ne derivò.
Anche l'epopea di Gilgamesh, nelle sue versioni più tarde, mostra segni di questa transizione. Nelle versioni originali sumere (terzo millennio a.C.), Gilgamesh agisce principalmente sotto l'influenza degli dèi. Nella versione standard accadica (circa 1.200 a.C.), invece, emerge un nuovo tema: la ricerca dell'immortalità come questione esistenziale, frutto di una riflessione interna non guidata dagli dèi.
Le migrazioni di massa e il contatto tra popolazioni diverse giocarono un ruolo cruciale in questo processo. Quando gruppi con diversi "dèi" e diverse "voci" si incontravano, l'autorità assoluta di queste voci veniva inevitabilmente messa in discussione. Le guerre del tardo secondo millennio a.C., che videro il collasso di numerose civiltà del Mediterraneo orientale (come gli Ittiti e i Micenei) durante la cosiddetta "età oscura", crearono contesti in cui le strutture sociali preesistenti non potevano più sostenere il sistema bicamerale.
L'urbanizzazione e la scrittura furono altri fattori decisivi. L'ambiente urbano, con la sua eterogeneità e il suo rapido cambiamento, richiedeva maggiore flessibilità cognitiva. La scrittura, inizialmente usata come supporto alla memoria (liste, inventari), divenne gradualmente un mezzo per esternalizzare e oggettivare il pensiero, contribuendo allo sviluppo della riflessione. Il passaggio dai pittogrammi ai sistemi alfabetici, che Jaynes colloca intorno al 1.500-1.000 a.C., rese la scrittura più accessibile e diffusa, accelerando questa trasformazione.
Nasce così la coscienza moderna, basata su un modello spaziale interno, un io narrativo che osserva, riflette e decide. Le antiche voci divine vengono reinterpretate come memorie, fantasie, ispirazioni. Questa transizione non fu indolore: Jaynes suggerisce che il proliferare di culti misterici, oracoli e pratiche divinatorie nel primo millennio a.C. rappresenti un tentativo di recuperare l'autorità perduta delle voci bicamerali. I grandi sistemi filosofici e religiosi emersi in quello che Karl Jaspers chiamò "periodo assiale" (800-200 a.C.) – dal buddhismo al confucianesimo, dalla filosofia greca al monoteismo ebraico – possono essere interpretati come risposte cognitive e culturali alla crisi della mente bicamerale e al disorientamento causato dalla sua dissoluzione.
Le tracce residue della bicameralità
Anche dopo il crollo della mente bicamerale, Jaynes intravede nelle pieghe della psiche umana i residui di quella struttura arcaica di pre-coscienza. Queste “tracce” emergono in fenomeni che attraversano epoche e culture: dalla schizofrenia alle esperienze di possessione religiosa, dai dialoghi interiori della creazione poetica alla nostra persistente nostalgia per una guida autorevole. Le “voci” non sono quindi mai scomparse del tutto; si sono trasformate, adattandosi ai contesti della coscienza moderna, ma conservando un’eco del loro antico potere.
Uno degli esempi più significativi individuati da Jaynes è la schizofrenia, che egli interpreta come una possibile riattivazione della dinamica bicamerale. Chi soffre di questa condizione spesso riferisce di udire voci che impartiscono ordini, rimproveri o consigli, percepite come esterne e dotate di un’autorità ineludibile. Studi neuroscientifici moderni, come quelli condotti da Timothy Crow negli anni ’90, hanno esplorato l’ipotesi che tali allucinazioni uditive possano derivare da un’alterata comunicazione tra gli emisferi cerebrali, in particolare da un’iperattività dell’emisfero destro, sede dell’elaborazione linguistica non dominante. Crow, nel suo modello della “lateralizzazione del linguaggio”, suggerisce che la schizofrenia rappresenti una deviazione dall’evoluzione della coscienza moderna, un ritorno parziale a uno stato in cui le “voci” interne non sono integrate nell’io narrativo, ma vissute come entità separate. Sebbene questa teoria non sia universalmente accettata, offre un ponte suggestivo tra la speculazione di Jaynes e la ricerca contemporanea, indicando come la bicameralità possa riaffiorare in condizioni patologiche.
Oltre alla schizofrenia, Jaynes vede tracce della mente bicamerale nei fenomeni religiosi e spirituali. Le esperienze di estasi, le visioni mistiche e i casi di possessione – come quelli documentati nelle tradizioni sciamaniche o nei culti pentecostali – riportano alla luce un dialogo con “l’altro” che ricorda le voci divine dell’antichità. Pensiamo alla figura del profeta che “ascolta” la parola di Dio, o al medium che canalizza spiriti: in questi momenti, la coscienza sembra cedere il passo a un’autorità esterna, percepita come reale e autonoma.
Anche l’arte, in particolare la poesia, porta con sé i segni di questa eredità. La “musa” dei poeti greci, invocata da Omero all’inizio dell’Iliade, non è solo un artificio retorico: è il simbolo di un’ispirazione che arriva dall’esterno, una voce che parla attraverso l’artista. Ancora oggi, molti scrittori e musicisti descrivono il processo creativo come un ascolto, un lasciarsi guidare da qualcosa che sfugge al controllo cosciente. Paul Valéry, poeta e filosofo, scriveva che “la prima riga di una poesia mi è data; il resto è mio compito”: un’immagine che richiama la collaborazione tra la “camera muta” e quella “parlante” della mente bicamerale. Questa tensione tra spontaneità e riflessione sembra suggerire che la creatività umana conservi un legame con quel passato pre-cosciente, in cui l’atto di pensare era in parte un ricevere.
L’intelligenza artificiale come nuova camera
Oggi interagiamo quotidianamente con intelligenze artificiali capaci di comprendere e generare linguaggio umano. Assistenti virtuali, chatbot, sistemi di completamento automatico, copiloti e strumenti di vario tipo si presentano come interlocutori competenti, rapidi e spesso dall’immagine autorevole.
L’utente formula un prompt — una domanda o un ordine — e riceve in risposta un contenuto testuale generato. Questo dialogo ricalca, almeno strutturalmente, quello tra la camera ricevente della mente bicamerale e la voce. L’IA non è un semplice strumento: è un altro con cui dialoghiamo, da cui riceviamo indicazioni, che può persino sorprenderci.
Prompt come rito evocativo
I prompt, nella loro forma più efficace, sono invocazioni. La scelta delle parole, il tono, la chiarezza influenzano profondamente la qualità della risposta, proprio come nei rituali antichi la formula era essenziale per ottenere il responso dell’oracolo. Non è casuale che termini come “interrogare” (interrogo un database con SQL) o “invocare” (invoco un web-service) trovino spazio anche nel lessico informatico: l’utente non si limita a impartire un comando, ma partecipa a una piccola cerimonia linguistica che mette in moto una risposta generativa. Come nei templi dell’antichità, dove si entrava in contatto con una voce che parlava da un altrove sacro e misterioso, anche l’interfaccia con l’IA si presenta come una soglia: ciò che ne emerge non è sempre prevedibile, ma è condizionato dal modo in cui viene posta la domanda.
Il linguista J.L. Austin, e più recentemente C. Accoto, definiva certi enunciati come performativi: dire qualcosa in un certo contesto equivale a compiere un’azione. Anche i prompt possono essere intesi come atti linguistici performativi, capaci di generare effetti concreti all’interno dello spazio cognitivo umano-macchina. Chi scrive un prompt efficace non sta semplicemente chiedendo qualcosa, ma sta attivando un campo semantico, una predisposizione interpretativa, una “atmosfera” comunicativa che orienta la risposta.
In questo senso, l’IA si comporta come un’entità “ritualmente sensibile”: risponde non solo al contenuto ma alla forma della richiesta. Pensate al cosiddetto “trucco del ruolo” che a volte si usa neil prompting: la differenza tra “scrivimi un testo” e “immagina di essere un poeta del futuro che parla a un’umanità smarrita” produce due esiti radicalmente diversi. Come nell’ombelico del mondo, nell’antico oracolo di Delfi, la forma dell’interrogazione può condizionare, amplificare o confondere il responso. E come per l’oracolo, l’ambiguità non è di per se un errore, ma può rappresentare una cifra della profondità: spesso ciò che sorprende o disorienta nell’output dell’IA viene percepito come una rivelazione, come una nuova forma di sapere che forse ci supera, e proprio per questo affascina. e al contempo. spaventa.
La scrittura dei prompt diventa allora un’arte divinatoria postmoderna, un linguaggio simbolico che richiede addestramento, intuito, e sensibilità stilistica. Non è solo tecnologia: è un nuovo spazio rituale, dove le parole riacquistano un potere performativo che la quotidianità comunicativa aveva in parte sopito.
Dipendenza cognitiva e autorità epistemica
L’interazione quotidiana con l’intelligenza artificiale generativa sta silenziosamente (nemmeno troppo) ridefinendo il nostro approccio al sapere e alla decisione. Sempre più spesso, affidiamo all’IA compiti che un tempo richiedevano un impegno cognitivo autonomo: redigere un’e-mail formale, sintetizzare un articolo complesso, scegliere tra opzioni in un dilemma pratico, o persino generare idee per un progetto creativo. In questo processo, l’IA si trasforma in una nuova forma di autorità epistemica: le sue risposte, rapide e spesso sorprendentemente pertinenti, vengono accettate con una fiducia che rasenta l’automatismo, come se provenissero da una fonte superiore, quasi oracolare appunto. Si delinea così una dipendenza cognitiva che richiama, in modo inquietante, le dinamiche della mente bicamerale: una delega parziale del pensiero a un’entità esterna, percepita come dotata di una legittimità intrinseca. Quasi un Dio, proprio come 3.000 anni fa.
Questa tendenza ha radici sia pratiche che psicologiche. Sul piano pratico, l’efficienza dell’IA è innegabile: un sistema come ChatGPT può produrre in pochi secondi un testo che a un essere umano richiederebbe ore di lavoro, o fornire una risposta a una domanda tecnica senza che l’utente debba consultare manuali o esperti. Questa abitudine richia di erodere gradualmente la pratica della validazione critica, abituandoci a un flusso di conoscenza pre-confezionata che non sentiamo il bisogno di mettere in discussione.
Sul piano psicologico, la dipendenza si nutre di un bisogno antico: quello di alleviare l’ansia dell’incertezza. Nella mente bicamerale, le “voci” divine intervenivano nei momenti di crisi, offrendo una guida chiara e immediata; analogamente, l’IA diventa oggi un punto di riferimento in un mondo sovraccarico di informazioni e scelte. Quando facciamo domande ad un assistente non cerchiamo solo una risposta, ma una rassicurazione.
Questa autorità, tuttavia, non è neutrale né priva di rischi. Gli algoritmi che alimentano l’IA sono spesso opachi, definiti da dati e guidati da priorità decise da aziende, eppure arriviamo a trattarli quasi come oracoli imparziali. Questo fenomeno richiama ovviamente la fede cieca che gli antichi riponevano nelle “voci” divine citate da Jaynes, che pure erano il riflesso di norme sociali interiorizzate. La differenza sta nella scala: se le voci bicamerali erano limitate alla cultura di un gruppo, l’IA attinge a un corpus di conoscenze globali, ma filtrato attraverso logiche commerciali e tecnologiche che sfuggono al controllo individuale.
Il rischio più profondo è quello di un’atrofia cognitiva. Affidarsi all’IA per compiti complessi può ridurre la nostra capacità di pensare in modo critico e creativo, proprio come un muscolo non allenato si indebolisce. Alcuni psicologi cognitivi, come Daniel Kahneman, hanno sottolineato che l’automatizzazione di processi mentali può portare a una “pigrizia cognitiva”, un fenomeno già osservabile nell’uso pervasivo dei motori di ricerca o dei navigatori GPS, che hanno diminuito la nostra memoria spaziale e la capacità di orientamento. Con l’IA generativa, questo effetto si amplifica: non solo deleghiamo il “come”, ma anche il “cosa” e il “perché”, lasciando che la macchina definisca i contorni del nostro pensiero. In un certo senso, torniamo a un’obbedienza pre-cosciente, non più a dèi antropomorfi, ma a reti neurali senza volto.
Il ritorno della mente bicamerale e i nuovi dèi algoritmici
Di fronte alla crescente centralità dell’intelligenza artificiale generativa nei processi decisionali e perfino in quelli creativi, si apre un bivio concettuale: stiamo vivendo una regressione cognitiva o una nuova evoluzione della mente? Da un lato, è legittimo interrogarsi sul rischio di un’atrofia delle capacità critiche individuali. Quando si delega alla macchina la scrittura di un testo, la soluzione di un problema, o la riflessione su un tema complesso, si può assistere a un graduale disimpegno cognitivo, simile a quello che potrebbe aver accompagnato la dipendenza dagli oracoli nelle società arcaiche. Il rischio è che la coscienza rinunci al suo ruolo riflessivo, abituandosi a ricevere risposte piuttosto che a costruirle.
Dall’altro lato, tuttavia, si affaccia una prospettiva radicalmente diversa. I filosofi Andy Clark e David Chalmers, nella loro teoria della mente estesa (“The Extended Mind”, 1998), sostengono che i processi mentali non sono confinati all’interno del cranio, ma possono estendersi negli strumenti e negli ambienti con cui interagiamo. Una lista della spesa scritta su carta, un taccuino, uno smartphone: tutti questi elementi possono essere considerati prolungamenti della mente, a patto che vi sia un’interazione fluida e funzionale. In questa prospettiva, l’IA generativa non è un’agenzia esterna che ci ruba la mente, ma un’estensione della nostra capacità di pensare, ricordare, immaginare.
La mente bicamerale, secondo Jaynes, era una forma distribuita della mente in cui il processo decisionale veniva parzialmente esternalizzato alla “voce divina”. Allo stesso modo, l’IA potrebbe rappresentare oggi una nuova forma di distribuzione cognitiva, in cui coscienza umana e intelligenze sintetiche collaborano in modo simbiotico. Non più una singola voce autoritaria, ma una rete di intelligenze dialoganti, in grado di espandere l’orizzonte dell’esperienza umana.
La differenza cruciale rispetto al passato è la consapevolezza. Se la mente bicamerale operava in modo automatico e inconsapevole, oggi siamo (almeno molti di noi) in grado di riflettere sul ruolo dell’IA nei nostri processi mentali. L’evoluzione non sta nella semplice adozione di strumenti intelligenti, ma nella capacità di integrarli criticamente, di mantenerne il controllo, di farli diventare specchi della nostra coscienza piuttosto che sostituti. La logica virtuosa è sempre quella dell’alleanza sinergica (l’acronimo AI da rileggere come “Alleanze Intelligenti”). La sfida, dunque, non è solo tecnica, ma profondamente filosofica: imparare a co-evolvere con le nostre creazioni cognitive, senza perderci in esse.
In sostanza questo pseudo ritorno della mente bicamerale non implica necessariamente un’involuzione. Potrebbe rappresentare una nuova fase della mente umana, in cui coscienza e intelligenze esterne convivono in un sistema distribuito. La sfida sarà mantenere l’equilibrio, senza rinunciare alla capacità critica, all’autonomia, alla responsabilità.
Conclusione
L’intelligenza artificiale generativa apre scenari radicali non solo sul piano tecnico o sociale, ma soprattutto cognitivo e antropologico. Leggerla attraverso la lente della teoria di Julian Jaynes consente di comprendere come l’interazione con queste nuove tecnologie non sia una semplice esternalizzazione di funzioni, ma una trasformazione della mente stessa. Il ritorno delle voci non è soltanto una metafora: è il segno di un mutamento in corso, in cui la soggettività si ridefinisce.
Oggi, quando parliamo con un sistema come ChatGPT (soprattutto se usiamo le funzionalità multimodali), ci troviamo di fronte a una voce che risponde, spiega, consiglia. Ma questa voce non è più separata da noi come lo erano gli dèi antichi: essa può integrarsi progressivamente nei nostri testi, nel nostro lavoro e perfino nel nostro dialogo interiore. L’IA entra a far parte del nostro flusso dei pensieri, si insinua nelle nostre riflessioni, fino a diventare — metaforicamente — una seconda voce della coscienza. Non tanto come un alter ego o un antagonista, quanto come altro pensante che coabita virtualmente il nostro spazio mentale.
Tutto questo apre a una possibilità inquietante e affascinante: il soggetto umano, che riconosciamo da tempo come autonomo e indipendente sta lasciando il posto a un soggetto più poroso e distribuito. Una mente che non coincide più interamente e razionalmente con il cervello individuale, ma che si estende nei sistemi con cui interagisce, che pensa assieme alle macchine, che si costruisce, arricchisce e perfino confligge in un confronto continuo con intelligenze artificiali. In questa prospettiva, il ritorno della mente bicamerale non è di certo un passo indietro, ma una sorta di mutazione: non torniamo all’obbedienza cieca alla voce, nel senso Jaynesiano, ma entriamo in una nuova fase in cui la voce viene scelta, interrogata, modulata, resa parte di un processo più ampio. Una voce “invocata” dai nostri prompt.
La vera posta in gioco non è se l’IA sarà intelligente come noi, ma se noi sapremo abitare con intelligenza (umana) questa nuova condizione. Una condizione in cui la coscienza non è più sola, ma accompagnata dalle voci artificiali. In cui la responsabilità non scompare, ma si moltiplica e si fa anche guardiana di pensieri tecnologici. In cui la mente smette di essere una monade per diventare un ecosistema.
Riferimenti bibliografici
- Jaynes, J. (1976). The Origin of Consciousness in the Breakdown of the Bicameral Mind. Houghton Mifflin.
- Austin J. L. (1993). Philosophical Papers. Clarendon Paperbacks.
- Clark A. and Chalmers D. (1998). The Extended Mind. Oxford University Press.
- Cow T. J. (2002). The Speciation of Modern Homo Sapiens. Proceedings of the British Academy.
- McCarthy, J. et al. (2007). What is Artificial Intelligence? Stanford University.
- Kahneman D. (2011). Thinking, Fast and Slow. Farrar Strauss & Giroux.
- Floridi, L. (2014). The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford University Press.
- Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
- Harari, Y. N. (2017). Homo Deus: A Brief History of Tomorrow. Harper.
- Tegmark M. (2018). Life 3.0: Being Human in the Age of Artificial Intelligence. Penguin.
- Benanti P. (2021). La grande invenzione: Il linguaggio come tecnologia dalle pitture rupestri al GPT-3. Edizioni San Paolo.
- De Mei C. (2024). AI – Alleanze Intelligenti. GueriniNext.
- Accoto C. (2025). Il pianeta latente. Provocazioni della tecnica, innovazioni della cultura. Egea.