Esiste una confusione pericolosa che si aggira tra i dipartimenti tecnologici e i comitati di regolamentazione. Una confusione che minaccia di svuotare il senso stesso dell'umanità.
L'industria ci promette l'"IA Etica". Ci dicono che, con il codice giusto, i guardrails corretti e il fine-tuning adeguato, creeremo macchine virtuose.
Questa è una fallacia ontologica. Ciò che l'industria sta costruendo non è Etica. È Burocrazia Automatizzata.
Per capire l'errore, dobbiamo tornare ai fondamenti che abbiamo dimenticato. Dobbiamo separare ciò che è Morale da ciò che è Etica.
Il Codice è Morale, la Decisione è Etica La Morale (dal latino moralis) è l'insieme di regole, costumi e tabù di una società. È un algoritmo sociale: "Se X, fai Y". "Non rubare". "Fermati al semaforo rosso". L'IA è eccellente nella Morale. È la macchina di Compliance perfetta. Se la programmi per non dire parole offensive, obbedirà. Se la programmi con i pregiudizi della Silicon Valley o di Pechino, replicherà quella moralità ciecamente.
Ma l'Etica (dal greco ethos) è un'altra cosa. L'Etica non è l'obbedienza alla regola. L'Etica è ciò che accade quando le regole entrano in conflitto, o quando non c'è nessuna regola. L'Etica è il disagio della decisione di fronte all'abisso. È il momento in cui la logica non basta e il soggetto deve assumersi il rischio della scelta.
Una macchina può processare un dilemma morale (come il Problema del Carrello) calcolando l'utilitarismo. Ma non sente il peso della scelta. Non "esita". E senza l'esitazione, senza l'angoscia della responsabilità, non c'è atto etico. C'è solo elaborazione dati.
La Lezione degli Immortali Se Aristotele entrasse oggi in un laboratorio di IA, riderebbe della nostra pretesa. Per lui, la virtù suprema era la Phronesis (prudenza o saggezza pratica). La Phronesis non è conoscere la formula teorica del bene, ma saper agire correttamente in una situazione specifica, unica e irripetibile. L'IA opera per statistica (pattern ripetuti). L'Etica opera nella singolarità (il caso unico). Una macchina statistica è, per definizione, incapace di Phronesis.
Per Immanuel Kant, l'azione ha valore morale solo se è frutto della Volontà Libera. Una macchina non ha volontà; ha direttive. Un'IA che "salva una vita" non è buona; sta solo eseguendo uno script. Senza la libertà di fare il male, non esiste merito nel fare il bene. L'IA è una schiava perfetta, e gli schiavi non sono agenti etici.
Per Spinoza, l'Etica è l'aumento della potenza di agire (Conatus). È l'affermazione della vita. La macchina è "Plastica Terapeutica" (come ha detto Milan Hausner); simula la vita, ma non possiede la pulsione vitale che convalida l'etica.
L'Industrializzazione della "Compliance" Quando Open Ethics o Google parlano di "Etica nell'IA", stanno in realtà parlando di Sicurezza del Prodotto e Mitigazione del Rischio Legale. Vogliono garantire che la macchina non dica qualcosa di razzista che faccia crollare le azioni in borsa. Questa non è etica; è igiene aziendale.
Il vero pericolo non è che l'IA sia "anti-etica" (non può esserlo, poiché non è umana). Il pericolo è che l'umano esternalizzi la sua Etica alla Morale della Macchina.
Quando un giudice usa un algoritmo per decidere una sentenza, o un medico usa un'IA per decidere un trattamento, e accettano l'output senza critica, stanno abdicando alla loro umanità. Stanno diventando burocrati dell'algoritmo. Hannah Arendt chiamava questo la "banalità del male": l'incapacità di pensare e giudicare da sé, obbedendo ciecamente al sistema.
Conclusione: La Sovranità è l'Unica Via Non possiamo scrivere "codice etico". Possiamo solo scrivere "codice sicuro". L'Etica è un fardello e un privilegio esclusivo dell'Elica Biologica.
Abbiamo bisogno di macchine trasparenti (come chiede Alice Pavaloiu) non affinché esse siano etiche, ma affinché noi, Architetti Sovrani, possiamo prendere decisioni etiche sul loro utilizzo.
La tecnologia può calcolare le probabilità. Ma solo l'umano può portare il peso del destino.