Go down

Serve una nuova educazione all’infosfera: epistemica, etica, ontologica. Serve un nuovo umanesimo, non nostalgico ma consapevole. Perché, se non penseremo noi l'infosfera, lo faranno gli algoritmi. E a quel punto, noi chi saremo?

“Non viviamo più semplicemente nel mondo. Viviamo nel mondo informazionale del mondo.” parafrasando Floridi

Preludio: la rivoluzione silenziosa

Copernico ci ha tolto il centro dell’universo. Darwin il trono della creazione. Freud la sovranità della coscienza. Ora, l’Intelligenza Artificiale ci detronizza dal monopolio della conoscenza. La quarta rivoluzione — come la chiama Luciano Floridi — è in corso, ma non fa rumore. S’insinua nei gesti, nei dati, nelle abitudini: una rivoluzione ambientale, non armata. Non siamo più solo umani nel mondo. Siamo inforgs nell’infosfera.

Ma che cos'è l'infosfera? Che cosa resta dell'identità, della conoscenza, della responsabilità? Questo saggio è un tentativo di cartografia concettuale per chi, come noi, naviga senza bussola nel mare silenzioso del digitale.

L’ontosfera dell’informazione

Cos'è reale, se tutto è informazionale?

L’infosfera, nella definizione di Floridi, è l’ambiente globale in cui tutti gli agenti — umani e artificiali — vivono, interagiscono e si trasformano. Ma la novità più profonda è ontologica: ciò che è informazionale è reale e viceversa. Non si tratta più di considerare il digitale come un'appendice del reale, ma di riconoscere che l'intero mondo (compreso quello "fisico") è descritto e trasformato come informazione. L'ontologia stessa si fa fluida.

Re-ontologizzazione e frizione zero

Il digitale non riproduce la realtà: la ricostruisce. Documenti, relazioni, oggetti diventano versioni informazionali di sé. La frizione ontologica — quella resistenza del mondo fisico a essere manipolato — tende allo zero. Il risultato? La fine del diritto all’ignoranza. In una infosfera ubiqua e accessibile, ogni atto di non-conoscenza è (potenzialmente) una colpa.

Inforgs tra inforgs

L’umano, dice Floridi, diventa inforg: organismo informazionale immerso in un ambiente co-informato. Il corpo, la memoria, l'identità sono prolungati in architetture digitali che ci riflettono e ci alterano. Non siamo più soggetti monolitici, ma nodi narranti in una rete cognitiva distribuita.

La crisi epistemologica dell’era digitale

Sovra informazione e perdita del filtro

Mai abbiamo avuto così tanta informazione. Mai abbiamo saputo così poco cosa farne. Il data deluge è un'alluvione semantica. I criteri di veridicità si fanno flessibili, estetici, algoritmici. L'informazione non è più giustificata, ma personalizzata.

Deepfake e backstop epistemico

Regina Rini parla di epistemic backstop: quel punto oltre il quale la conoscenza perde ancoraggio, e con essa, la fiducia. I deepfake, e più in generale le IA generative, minano il nostro sguardo: vedere non è più credere. E se non possiamo fidarci di ciò che percepiamo, quale tipo di verità è ancora possibile?

Autorità epistemiche artificiali

Non deleghiamo più solo l'esecuzione, ma la formulazione del sapere. L'IA è diventata autorità epistemica di fatto. Ma senza agency morale, senza trasparenza algoritmica, quale forma di fiducia epistemica può sopravvivere? Siamo nel regno del sapere senza sapienti.

Responsabilità nella terra di nessuno

Il vuoto di colpa

Andreas Matthias parla di responsibility gap: quando una macchina causa un danno, ma nessuno è davvero colpevole. Non il programmatore, non l'utente, non la macchina (che non ha coscienza). Il vuoto non è solo giuridico: è morale.

Soluzioni illusorie

Attribuire personalità giuridica ai robot è una scorciatoia per deresponsabilizzare l'umano. Come nelle società per azioni: la colpa si dissolve nella struttura. Ma le macchine non sono persone. Sono specchi informazionali della nostra intenzionalità deformata.

Etica della progettazione

La vera soluzione non è imputare colpa alle macchine, ma progettare responsabilità. Floridi parla di moralità distribuita. Se la macchina agisce in un ecosistema umano, la responsabilità deve essere disegnata nella rete: dai dati, ai modelli, agli impatti.Agenzia: danzare con la macchina

Agency estesa, agency smarrita

Con l’intelligenza artificiale, l’agency è aumentata, ma anche dispersa. Delegare non è solo un gesto tecnico, ma ontologico: cediamo pezzi della nostra capacità d'azione a entità senza intenzionalità. Da soggetti, diventiamo co-autori non accreditati.

Co-agency e coreografie morali

In molti contesti (dalla medicina alla finanza), IA e umani agiscono insieme. Si formano coreografie di agency, dove l’autonomia è condivisa. Ma se i passi non sono trasparenti, il danzatore umano inciampa. Serve chiarezza sulle competenze, sugli scopi e sugli errori.

Automatismo non è destino

La storia della tecnica è anche storia di resistenze. Automatizzare non implica cedere tutto. Serve un principio: “human in the loop”. Non solo come controllo finale, ma come criterio di senso. Perché senza senso, l’azione è pura funzione. E l’umano scompare.


Identità nell’era dell’inforg

Multipli e persistenti

L'identità digitale è multipla, performativa, persistente. Il sé non è più unitario, ma stratificato: profili, avatar, cronologie. Il problema non è la pluralità, ma la sua archiviazione. Chi controlla la memoria pubblica dell’individuo?

Narrazione algoritmica

L'identità viene co-costruita dagli algoritmi: suggerimenti, ricordi automatici, pubblicità personalizzate. Il rischio è una biografia algoritmica: un sé raccontato dagli altri (codici, dati, aziende) in base a pattern, non a significati.

Comunità e polarizzazione

L'infosfera consente identità collettive nuove (fandom, attivismi, minoranze connesse). Ma crea anche tribù chiuse, camere dell'eco, bolle cognitive. L'identità si forma più per opposizione che per progetto. E i nemici non mancano mai.

Congedo: pensare l’infosfera, non subirla

Siamo ormai inforgs tra inforgs. Viviamo in un infosfera senza attrito, senza confini netti, senza agency centralizzata. La sfida filosofica non è tornare indietro, ma abitare criticamente questa condizione.

Serve una nuova educazione all’infosfera: epistemica, etica, ontologica. Serve un nuovo umanesimo, non nostalgico ma consapevole. Perché, se non penseremo noi l'infosfera, lo faranno gli algoritmi.
E a quel punto, noi chi saremo?

Post-Scriptum

Nel cuore dell’epoca digitale, la follia più grande non è delegare il pensiero alla macchina — è credere di essere lucidi mentre lo si fa.
La vera sapienza non è salvare la rotta, ma ridere mentre si tiene saldo il timone. Anche — e soprattutto — nell’infosfera.

 

Pubblicato il 21 aprile 2025

Andrea Berneri

Andrea Berneri / Head of Architecture and ICT Governance Fideuram ISPB. I turn complex systems into strategies, bridging law, tech, and organization—with method, irony, and precision

aberneri@fideuram.it