Il suo tratto distintivo è il dialogo come esercizio rigoroso che smonta le certezze. Socrate prende di mira la presunta sapienza, quella di chi parla con sicurezza e autorità, e la espone fino a far emergere ciò che nasconde, l’ignoranza. Per questo si non sapere, non è una rinuncia alla conoscenza, ma il suo punto di partenza.
La sua filosofia ruota attorno a un’idea semplice, la cura dell’anima. Non l’anima come entità astratta, ma come centro della responsabilità morale, della coscienza, della capacità di distinguere il bene dal male. Per Socrate, il vero scandalo non è l’errore, ma l’indifferenza verso sé stessi. Lo dice con parole dure ai cittadini di Atene: perché vi occupate di denaro, prestigio e potere, e trascurate la saggezza, la verità, la vostra anima? Qui la filosofia diventa un gesto politico, un richiamo continuo alla responsabilità individuale.
In questa intervista impossibile, Socrate viene interrogato su un tema che tocca il cuore del suo pensiero. Le domande sono contemporanee, ma le categorie restano le sue. Non si parla di prestazioni o di efficienza, ma di coscienza, etica, conoscenza, politica e giustizia. Socrate risponde come chi ha passato la vita a interrogare il rapporto tra sapere e responsabilità, tra potere e coscienza.
Il risultato non è un giudizio sull’AI, ma una serie di domande rivolte a noi. Perché, come avrebbe detto lui, il problema non è se le macchine pensano, ma se gli esseri umani smettono di farlo.
1) COSCIENZA
CAB: Oggi esistono sistemi di intelligenza artificiale che parlano come noi e prendono decisioni che incidono sulla vita delle persone. Possono avere una coscienza? E potrebbero possedere qualcosa di simile al suo daimònion, una voce interiore che trattiene dal male?
SOCRATE: Cominciamo da ciò che è più semplice, perché spesso è anche ciò che più facilmente dimentichiamo. Quando una cosa parla, non per questo sa. Già ai miei tempi la scrittura produceva un effetto simile, offriva agli uomini l’apparenza della sapienza, non la verità. Leggevano molte cose, accumulavano parole, e per questo credevano di sapere. Ma, interrogati, scoprivano di non aver imparato nulla davvero.
Ora immagina una macchina. Essa dispone di parole, di frasi ben costruite, di risposte rapide. Ma non dispone di una vita vissuta. Non ha conosciuto l’errore, non ha fatto esperienza, non ha mai dovuto rendere conto a se stessa di ciò che dice o fa. Può parlare di coscienza, ma non è cosciente di parlare.
Quanto al daimònion, non era un ragionamento, né una regola. Non mi diceva che cosa fare. Interveniva solo per impedire quando stavo per compiere un’azione ingiusta, quella voce si faceva sentire e mi tratteneva. Non indicava il bene, ma segnava un limite. Per questo era una voce morale, non uno strumento decisionale.
Se mi chiedi se una macchina possa avere qualcosa di simile, io ti rispondo come sempre con una domanda. Quando una macchina sta per compiere un’ingiustizia, chi sente il peso di dover rispondere non a una regola, ma a sé stesso? E soprattutto, chi ne paga il prezzo?
Io ho imparato che la vera essenza dell’essere umano è l’anima, intesa come coscienza che riflette su se stessa. E la prima responsabilità di ciascuno è la cura della propria anima. Senza questa cura non c’è responsabilità.
Una macchina può imitare il linguaggio del rimorso, ma se non esiste un “sé” che possa essere colpito dal male che compie, quel rimorso resta solo un segno esteriore, una figura ben disegnata su una maschera.
2) ETICA
CAB: Molti oggi vogliono usare l’AI per scegliere “la decisione giusta” in sanità, nel lavoro, nella scuola, perfino in guerra. Può un sistema artificiale stabilire che cosa è bene?
SOCRATE: Se vuoi affidare a qualcuno il bene, devi prima chiarire una cosa semplice: costui conosce davvero il bene?
Molti parlano con sicurezza, danno ordini, formulano giudizi, ma se li interroghi scopri che non sanno ciò che credono di sapere. Io, al contrario, ho imparato che non so, e proprio per questo non credo di sapere. Qui comincia l’etica.
Tu mi dici che l’AI calcola. Ma il bene non è un calcolo. Non nasce dalla somma dei vantaggi né dalla riduzione dei danni. Il bene è una domanda sulla vita, sul modo in cui si deve vivere, e su ciò che siamo disposti a perdere pur di non fare il male.
La mia attività non è mai stata fornire risposte, ma interrogare a lungo, con pazienza, finché l’interlocutore, stanco di difendere certezze fragili, arrivava a riconoscere la propria ignoranza. Io non cercavo il consenso, ma la caduta della falsa sapienza. Perché solo da lì può nascere una scelta giusta.
E allora ti domando: se un’AI “decide il bene”, chi l’ha interrogata fino a metterla in difficoltà? Chi l’ha condotta in aporia, cioè in quel punto in cui le contraddizioni diventano visibili e non si può più procedere con sicurezza? Chi ha mostrato all’AI ciò che non sa?
C’è poi un’altra questione, ancora più decisiva. Se è vero, come io credo, che è meglio subire un’ingiustizia che commetterla, allora l’etica non è solo scegliere, ma assumersi un rischio. È accettare un costo pur di non fare il male. È essere disposti a pagare un prezzo, anche alto.
Una macchina non soffre per la decisione che prende. Non perde nulla. Il prezzo lo paga sempre qualcun altro. Per questo, quando sento dire che “l’AI decide il bene”, temo che la verità sia un’altra. Qualcuno decide, e l’AI rende quella decisione più rapida, più efficiente, forse anche più difficile da contestare.
Ma il bene, se non può essere discusso, interrogato, messo in dubbio, smette di essere bene e diventa soltanto potere travestito da necessità.
3) CONOSCENZA
CAB: Un’AI può rispondere a quasi tutto. È conoscenza o imitazione? Che cos’è oggi, per te, “sapere”?
SOCRATE: Io parto sempre dallo stesso punto, sapere di non sapere. È il riconoscimento di un limite, e proprio per questo è l’inizio del desiderio di conoscere. Chi crede di sapere non cerca più; chi sa di non sapere, invece, è costretto a interrogare, a mettere alla prova, a non accontentarsi.
Per questo io non ho mai insegnato come fa un tecnico, che deposita un contenuto nella mente di chi ascolta. Non ho mai trasmesso nozioni da accumulare. Nel Teeteto dico che la mia arte somiglia a quella delle levatrici: non genera figli, ma aiuta a farli nascere. E soprattutto distingue. Perché non tutto ciò che nasce nell’anima è vero, alcune cose sono solo fantasie, altre sono menzogne ben costruite, altre ancora sono vive e degne di essere coltivate.
Io stesso sono “sterile” in sapienza. Non possiedo verità da consegnare. Ma chi dialoga davvero, chi accetta di essere messo in difficoltà, spesso scopre di aver trovato da sé molte cose buone e vere. Non grazie a me, ma grazie all’esame di sé.
Ora chiediamoci questo, quando un’AI risponde, che cosa produce in chi la usa? Aiuta l’anima a partorire una verità propria, oppure consegna risposte già pronte che rendono passivi? Perché c’è una differenza decisiva tra trovare e ricevere. Trovare implica fatica, rischio, esposizione all’errore. Ricevere può dare sollievo, ma spesso spegne la ricerca.
Per me il sapere non è ciò che “funziona” o suona bene in una risposta. Il sapere è ciò che resiste al dialogo, ciò che sopravvive alle domande, ciò che non crolla quando viene messo alla prova. Tutto il resto è solo apparenza di sapienza.
4) POLITICA
CAB: Alcuni oggi propongono forme di governo algoritmico: decisioni pubbliche basate su modelli matematici, classifiche, previsioni automatiche. È più giusto affidarsi all’AI piuttosto che agli essere umani?
SOCRATE: La questione non è chi decide meglio o più in fretta, ma chi risponde delle decisioni. Io non ho mai cercato cariche pubbliche, eppure ho mostrato una cosa che ritengo decisiva, della morte non mi sono mai curato, ma mi sono sempre curato di non commettere ingiustizia. Se la politica perde questo criterio, non è più governo della città, ma semplice tecnica di comando.
Un governo che si affida agli algoritmi corre un rischio preciso, quello di produrre cittadini che obbediscono senza comprendere. E una città in cui si obbedisce senza capire è una città che ha rinunciato alla propria anima. Io ho passato la vita a fare l’opposto: disturbare, mettere in dubbio, costringere a pensare. Mi hanno chiamato fastidioso, ma il mio compito era proprio questo, impedire alla città di addormentarsi.
Se l’AI diventa l’autorità, chi avrà il coraggio di contraddirla? Chi dirà: “forse questo calcolo è sbagliato”, “forse questa decisione è ingiusta”, “forse non stiamo vedendo ciò che conta davvero”? Il lavoro più faticoso della politica non è eseguire, ma esaminare. Io andavo in giro interrogando proprio per mostrare che nessuno è davvero sapiente, e che chi crede di esserlo è il più pericoloso.
Un algoritmo che si presenta come neutrale e oggettivo rischia di restaurare ciò che io ho sempre combattuto, la presunzione di sapere. Cambiano gli strumenti, ma il vizio resta lo stesso. Prima erano gli oratori, i politici, i presunti esperti; oggi rischiano di essere i modelli e le previsioni. Ma la forma della presunzione non ne cambia la sostanza.
La politica degna di questo nome non è quella che delega il pensiero, ma quella che lo coltiva. È quella che rende i cittadini capaci di discutere, di argomentare, di persuadersi a vicenda non con la forza né con l’autorità, ma con la ragione. Se l’AI aiuta questo processo, se rende più chiari i problemi e più visibili le conseguenze, allora può essere utile.
Ma se lo sostituisce, se prende il posto del giudizio umano e lo rende muto, allora non abbiamo un governo migliore. E una città che non sa più interrogare il potere è già, senza accorgersene, una città meno libera.
5) GIUSTIZIA
CAB: In alcuni paesi si sperimenta l’uso dell’Intelligenza Artificiale nei tribunali per stimare il rischio di recidiva, orientare le sentenze, suggerire le pene. È giusto? L’AI può rendere la giustizia più equa?
SOCRATE: La giustizia non è un calcolo e non è una previsione. È un principio che riguarda il modo in cui gli uomini devono vivere insieme. Io l’ho difeso fino alla fine con una convinzione semplice e scomoda: è meglio subire un’ingiustizia che commetterla. Perché chi subisce un torto conserva la propria anima, mentre chi lo compie la corrompe.
Tu mi parli di sistemi che stimano, prevedono, ottimizzano. Ma dimmi, quando una decisione è ingiusta “per errore”, chi ne risponde? Chi si accusa?
Se nessuno risponde, allora non siamo di fronte alla giustizia, ma a una procedura.
Voi cercate l’equità nell’efficienza, nella riduzione dell’errore, nella media statistica. Io l’ho sempre cercata altrove, nella possibilità di discutere le ragioni. Per questo ho passato la vita a dialogare. Anche davanti alla condanna, anche davanti alla morte, non ho smesso di fare domande. Perché un giudizio giusto non è quello che “funziona”, ma quello che può essere messo alla prova, che sopporta le obiezioni, che accetta di essere interrogato.
La giustizia non è un risultato finale, ma un percorso di ragionamento. Se togli questo percorso, se lo rendi invisibile o automatico, togli anche la possibilità di capire dove si è sbagliato. E senza questa possibilità, non c’è correzione, ma solo obbedienza.
C’è poi un ultimo punto, forse il più importante. Chi giudica deve temere soprattutto una cosa, diventare complice dell’ingiustizia. Io ho rifiutato di obbedire a ordini ingiusti anche quando provenivano da un potere forte, perché sapevo che obbedire mi avrebbe reso corresponsabile. Meglio correre un rischio che vivere sapendo di aver fatto il male.
Se metti l’AI tra te e la decisione, diventa più facile dire: “non sono stato io, lo diceva il sistema”. Ma la giustizia non vive di alibi. Non vive di scarichi di responsabilità. Vive di uomini e donne che si assumono il peso delle proprie decisioni, anche quando questo peso è scomodo.
Una giustizia che non ha volto, che non può essere interrogata, che non può provare vergogna, forse sarà rapida e coerente. Ma non sarà giusta. Perché la giustizia, come l’anima, esiste solo dove qualcuno è disposto a risponderne.
Breve bio
Socrate nacque ad Atene intorno al 470 a.C. e vi morì nel 399 a.C. È considerato uno dei padri della filosofia occidentale. Non scrisse nulla per scelta: riteneva che la verità non potesse essere fissata in testi, ma dovesse emergere dal dialogo vivo tra le persone. Il suo metodo consisteva nel porre domande semplici e insistenti per mettere alla prova le convinzioni comuni, fino a far emergere l’ignoranza di chi crede di sapere.
Al centro del suo pensiero vi è la cura dell’anima, intesa come responsabilità morale e capacità di esaminare se stessi. Socrate dedicò la vita a interrogare i cittadini di Atene su concetti fondamentali come giustizia, bene, virtù e verità, rifiutando il prestigio, il denaro e il potere politico. Accusato di empietà e di corrompere i giovani, fu processato e condannato a morte. Rifiutò la fuga, sostenendo che è meglio subire un’ingiustizia che commetterla.
La sua morte divenne il gesto conclusivo di una vita coerente: testimonianza che la filosofia non è un sapere astratto, ma un modo di vivere fondato sulla responsabilità, sul dialogo e sulla ricerca della verità.
IIP nasce da una curiosità: cosa direbbero oggi i grandi pensatori del passato di fronte alle sfide dell’intelligenza artificiale? L’idea è di intervistarli come in un esercizio critico, un atto di memoria e, insieme, un esperimento di immaginazione.
Ho scelto autori e intellettuali scomparsi, di cui ho letto e studiato alcune opere, caricando i testi in PDF su NotebookLM. Da queste fonti ho elaborato una scaletta di domande su temi generali legati all’AI, confrontandole con i concetti e le intuizioni presenti nei loro scritti. Con l’aiuto di GPT ho poi generato un testo che immagina le loro risposte, rispettandone stile, citazioni e logica argomentativa.
L’obiettivo è riattivare il pensiero di questi autori, farli dialogare con il presente e mostrare come le loro categorie possano ancora sollecitarci. Non per ripetere il passato, ma per scoprire nuove domande e prospettive, utili alla nost