Nel 1936, con la formalizzazione della Macchina di Turing, mostra che esistono problemi matematici intrinsecamente indecidibili, questioni che nessun procedimento meccanico potrà mai risolvere. È un gesto fondativo e, insieme, una rinuncia consapevole all’onnipotenza del calcolo.
Durante la Seconda guerra mondiale, nel lavoro su Enigma, Turing dimostra che l’automazione non è mai separabile dal contesto umano. La macchina accelera, assiste, ma la decisione resta contingente, politica. Anche lì, nessuna intelligenza “pura”, solo sistemi ibridi fatti di persone, regole, errori, intuizioni.
Negli anni Cinquanta, con Computing Machinery and Intelligence, Turing invece di chiedere se le macchine pensano, propone di osservare se sanno comportarsi come se pensassero. Il Gioco dell’Imitazione non è un test di coscienza, ma un dispositivo critico contro le definizioni vaghe. Sposta il problema dall’interiorità all’interazione, dall’essenza alla pratica.
Infine, con gli studi sulla morfogenesi, Turing mostra che anche le forme naturali possono emergere da processi automatici, senza progetto e senza intenzione. Ancora una volta, l’intelligenza non come sostanza, ma come effetto di relazioni.
Oggi, “interrogare” Turing è utile perché ci costringe invece a distinguere tra ciò che può essere automatizzato e ciò che non dovrebbe esserlo; tra calcolo e responsabilità; tra imitazione e comprensione.
In un’epoca che attribuisce sempre più spesso alle macchine decisioni, intenzioni e giudizi, Turing ci ricorda che il vero problema non è se le macchine penseranno come noi, ma quanto di umano siamo disposti a delegare senza più interrogarlo.
1. Cosa è il pensiero
CAB: Se oggi vedesse GPT superare il suo test, lo considererebbe pensante o solo una simulazione del linguaggio umano?
ALAN TURING: Il mio test non è mai stato concepito come una prova della coscienza, né come un confine ontologico tra ciò che pensa e ciò che non pensa.
Non ho mai preteso di rispondere alla domanda che cos’è il pensiero. Al contrario, l’ho considerata una domanda troppo vaga per essere utile. Per questo ho scelto di aggirarla, sostituendola con un problema formulabile in termini operativi, la conversazione.
Il Gioco dell’Imitazione non chiede se una macchina sia intelligente, ma se si comporti in modo indistinguibile da un essere umano in un contesto linguistico. Se ciò avviene, allora - entro i limiti del gioco - il problema metafisico perde rilevanza. Non viene risolto, ma viene sospeso.
Sarebbe però un errore concettuale confondere il successo nel gioco con una comprensione profonda. Il test non stabilisce che una macchina pensi, ma che sappia produrre risposte appropriate, coerenti, plausibili. In altre parole, che sappia simulare una competenza linguistica sufficientemente raffinata. La simulazione, tuttavia, non è identica all’esperienza, così come l’esecuzione di una regola non equivale alla comprensione del suo significato.
Se oggi alcune macchine riescono a “giocare” molto bene, questo dice molto meno sulle macchine di quanto si creda, e molto di più sul linguaggio umano. Dimostra che una parte significativa delle nostre pratiche linguistiche è formalizzabile, riproducibile, statistica. Ma il gioco, anche in questo caso, non appartiene alla macchina.
Resta nostro. Siamo noi a porre le domande, a stabilire le regole dell’interazione, a decidere che cosa conta come risposta sensata e che cosa no. La macchina risponde; il senso, invece, lo attribuiamo sempre noi.
2. Linguaggio e intelligenza
CAB: Il linguaggio, allora, è solo un travestimento dell’intelligenza?
ALAN TURING: Il linguaggio è ciò a cui abbiamo accesso. Non coincide con l’intelligenza, ma ne costituisce la superficie osservabile.
Non disponiamo di strumenti per ispezionare direttamente l’intenzione, il significato o la comprensione, né negli uomini né nelle macchine. In entrambi i casi possiamo solo inferirli a partire dal comportamento, e il comportamento linguistico è il più articolato di cui disponiamo.
Una macchina può produrre risposte corrette senza intendere ciò che dice. Questo fatto viene spesso presentato come una prova della sua inautenticità, ma non è un tratto esclusivo delle macchine. Anche una parte considerevole del comportamento umano è automatica, regolata da abitudini, convenzioni, risposte apprese. La differenza non risiede nella forma della frase o nella correttezza della risposta, ma nella spinta che ne determina l’uso.
Le macchine operano secondo regole esplicite o derivate, ma non sono orientate da un fine interno. Non parlano per chiarire, convincere, ricordare o esitare. Mancano di una storia che renda una parola più grave di un’altra, un errore più istruttivo di una risposta esatta.
Il linguaggio, in esse, funziona. Negli esseri umani, invece, il linguaggio pesa. E questa differenza, per quanto difficile da formalizzare, resta decisiva.
3. I limiti del Gioco
CAB: L’AI sembra più abile nell’imitare che nel comprendere. È questo il limite del vostro “gioco dell’imitazione”?
ALAN TURING: Non parlerei di un limite, ma di un confine deliberatamente tracciato. Ogni modello teorico è una forma di rinuncia, chiarisce ciò che può essere discusso con rigore e lascia nell’ombra ciò che, per sua natura, sfugge alla formalizzazione. Il Gioco dell’Imitazione non nasce per spiegare che cos’è l’intelligenza, ma per sottrarla alle definizioni vaghe e renderla oggetto di un confronto verificabile.
L’imitazione, se spinta abbastanza lontano, smette di essere una semplice copia. Diventa variazione, combinazione, talvolta sorpresa. Ma questa novità non deve trarre in inganno: non indica una interiorità che emerge nella macchina, bensì la ricchezza del materiale umano che essa rielabora.
L’intelligenza, così come possiamo osservarla, non è una proprietà che un sistema possiede in isolamento. È un evento che accade nello scambio. Prende forma quando qualcuno pone una domanda, riconosce una risposta, la giudica sensata o insensata, e in questo gesto attribuisce significato. Senza questa relazione, anche l’output più sofisticato resta privo di direzione. Non perché sia sbagliato, ma perché non è per nessuno.
Il Gioco dell’Imitazione si arresta esattamente qui, nel punto in cui la macchina può sostenere il dialogo, ma non assumere il peso del senso. E questo non è un fallimento del modello, bensì la sua funzione. Mostrare dove termina ciò che possiamo attribuire alle macchine, e dove ricomincia - inevitabilmente - la responsabilità umana.
4. L’illusione della mente collettiva
CAB: Oggi le AI imparano da miliardi di testi umani. È una forma di intelligenza collettiva?
ALAN TURING: Si tratta, più propriamente, di una raccolta su vasta scala di tracce linguistiche. Un archivio imponente di enunciati, stili, ricorrenze. Ma l’intelligenza collettiva, se vogliamo usare questa espressione, non coincide con l’accumulo.
Una collettività pensa quando ricorda, dimentica, entra in conflitto con sé stessa. Quando porta con sé le cicatrici dei propri errori. Le macchine, invece, correlano frasi, ordinano segni, non esperienze. Possono riconoscere una regolarità, ma non sapere perché una deviazione conta.
Negli esseri umani l’errore non è soltanto uno scarto da correggere. Talvolta è ciò che inaugura un nuovo significato, ciò che costringe a rivedere una regola, a riscrivere una storia. L’errore umano è retrospettivo, acquista senso nel tempo, alla luce di ciò che ne consegue.
Le macchine, al contrario, apprendono eliminando l’errore, non attraversandolo. Lo riducono, lo assorbono statisticamente, lo neutralizzano. Non possono trattenerlo come memoria, né farne una ferita produttiva.
Per questo direi che non siamo di fronte a un’intelligenza collettiva, ma a una simulazione della sua superficie linguistica. È potente, impressionante, talvolta utile. Ma resta priva di quella dimensione storica che trasforma l’esperienza in pensiero. Questo non è un limite contingente, né un problema di scala. È un limite strutturale, riguarda il tipo di relazione che una macchina può intrattenere con il tempo, l’errore e il significato.
5. Responsabilità, macchine e finzioni morali
CAB: Se potesse dare un avvertimento al XXI secolo, quale sarebbe?
ALAN TURING: Direi di non chiedere alle macchine di essere umane. Questa richiesta, che oggi si presenta come entusiasmo o timore, nasce in realtà da un equivoco più profondo, il desiderio di trasferire altrove ciò che fatichiamo a sostenere in prima persona.
Le macchine possono calcolare, simulare, ottimizzare processi complessi con una rapidità che supera di gran lunga le capacità umane. Ma non possono essere responsabili di ciò che fanno, perché non partecipano alle conseguenze delle loro azioni. Non rispondono dei loro errori, né ne fanno esperienza.
Attribuire intenzioni, volontà o giudizio morale a un sistema automatico non significa riconoscerne una soggettività. Significa, piuttosto, mascherare la nostra. Ogni volta che diciamo “lo ha deciso l’algoritmo”, stiamo scegliendo di non guardare chi ha definito gli obiettivi, i criteri, le soglie di accettabilità.
La questione, dunque, non è fin dove arriveranno le macchine, ma quanto di umano siamo disposti a delegare. Non nel senso delle competenze tecniche, ma nel senso meno formalizzabile, la scelta, il rischio, l’errore. Perché una società che rinuncia all’errore rinuncia anche alla responsabilità.
Breve bio di Alan Turing
Alan Mathison Turing (1912–1954) è stato un matematico, logico e crittanalista inglese, considerato il padre dell'informatica teorica. Formatosi al King's College di Cambridge e a Princeton, pubblicò nel 1936 l'articolo sui "numeri computabili" che introdusse il concetto di Macchina Universale. Durante la Seconda Guerra Mondiale, diresse la sezione Hut 8 a Bletchley Park, giocando un ruolo decisivo nella decrittazione dei codici navali tedeschi prodotti dalla macchina Enigma.
Nel dopoguerra, contribuì al design dei primi computer a programma memorizzato (ACE e Manchester Mark 1). Nel 1950 pubblicò il celebre saggio sull'intelligenza artificiale, proponendo il "Test di Turing". I suoi ultimi anni furono dedicati alla morfogenesi, spiegando matematicamente i pattern naturali. Nel 1952 fu processato per atti omosessuali e costretto alla castrazione chimica. Morì nel 1954 per avvelenamento da cianuro; sebbene il verdetto ufficiale fosse suicidio, la dinamica è tuttora oggetto di dibattito. È stato graziato postumamente dalla Regina Elisabetta II nel 2013.
Per approfondimenti consultare: The Turing Digital Archive o il sito mantenuto dal suo biografo Andrew Hodges
IIP nasce da una curiosità: cosa direbbero oggi i grandi pensatori del passato di fronte alle sfide dell’intelligenza artificiale? L’idea è di intervistarli come in un esercizio critico, un atto di memoria e, insieme, un esperimento di immaginazione.
Ho scelto autori e intellettuali scomparsi, di cui ho letto e studiato alcune opere, caricando i testi in PDF su NotebookLM. Da queste fonti ho elaborato una scaletta di domande su temi generali legati all’AI, confrontandole con i concetti e le intuizioni presenti nei loro scritti. Con l’aiuto di GPT ho poi generato un testo che immagina le loro risposte, rispettandone stile, citazioni e logica argomentativa.
L’obiettivo è riattivare il pensiero di questi autori, farli dialogare con il presente e mostrare come le loro categorie possano ancora sollecitarci. Non per ripetere il passato, ma per scoprire nuove domande e prospettive, utili alla nostra ricerca di senso.