Go down

Cosa bisogna sapere per essere esperti di intelligenza artificiale?

Il primo istinto è rispondere per accumulo: bisogna saper usare il computer, poi i programmi di base, poi gli strumenti più avanzati, poi quelli specifici del proprio settore, e così via, salendo una scala di competenze tecniche sempre più sofisticate. È la logica del corso di aggiornamento, del tutorial, del manuale. Una logica che ha senso quando il problema è imparare uno strumento nuovo.

Ma la questione non è imparare strumenti nuovi.


Un mio amico, presidente di una grande società, sa usare il computer. Sa usare Word, gestisce riunioni in videoconferenza, legge documenti complessi, prende decisioni difficili ogni giorno. Eppure non sa con certezza se sulla sua postazione ci sia o meno un sistema di intelligenza artificiale attivo. Non perché sia pigro o disattento. Perché non si è mai posto la domanda — e nessuno gliel'ha mai posta in modo che gli sembrasse urgente.

Il suo problema non è di strumenti. È di categorie. Non gli manca un'abilità: gli manca un modo di vedere. E nessun corso di aggiornamento glielo dà, perché i corsi di aggiornamento sono progettati per insegnare a fare cose, non a pensare cose.

Il salto che serve non è da non so usare lo strumento a so usare lo strumento. È da non mi pongo domande su cosa fa lo strumento mentre lo uso a mi pongo quelle domande come atto normale, quasi igienico. È un salto di prospettiva, non di competenza tecnica. E questa differenza — tra aggiornare le abilità e cambiare modo di vedere — è esattamente ciò che i discorsi correnti sull'intelligenza artificiale sistematicamente ignorano, o peggio, nascondono dietro la promessa rassicurante del corso giusto, della certificazione giusta, dello strumento giusto.


Il proliferare delle tribù

Quello che osservo nel campo dell'intelligenza artificiale è la formazione spontanea di un arcipelago di tribù epistemiche. Gli informatici, i filosofi, gli psicologi, i semiotici, i pedagogisti, gli architetti come me — ognuno ha cominciato a riflettere sull'intelligenza artificiale dal proprio punto di osservazione, e ognuno, quasi inevitabilmente, tende a sostenere che il proprio punto di vista sia quello fondamentale, quello senza il quale non è possibile capire davvero di cosa si tratta.

Il problema non è il pluralismo. È che i framework istituzionali che dovrebbero ordinare questo arcipelago — i modelli UNESCO, il DigComp, la normativa europea sull'intelligenza artificiale — risolvono il problema solo nominalmente. Dichiarano che tutti i livelli di competenza sono legittimi e necessari. Ma nella struttura gerarchica che propongono tradiscono un assunto implicito: chi produce intelligenza artificiale sta al vertice, chi la usa o la governa sta in basso. Il formatore, il consulente, colui che si occupa di governance sono, in questa logica, dei postini. Necessari, ma derivati.


La gerarchia nascosta

C'è qualcosa di ideologicamente preciso nel mettere l'ingegneria al vertice e la formazione alla base. Replica la struttura del capitalismo industriale: chi produce è più vicino al valore reale, chi media, insegna, governa è sovrastruttura — necessaria ma secondaria.

Applicato all'intelligenza artificiale, questo è pericoloso per una ragione specifica. I sistemi algoritmici non sono artefatti tecnici neutri che vengono poi usati bene o male a seconda della preparazione di chi li adopera. Sono dispositivi che incorporano scelte valoriali, epistemologiche e politiche già nella fase di progettazione. L'errore non è un incidente che la formazione corregge a valle: è spesso una scelta codificata a monte, invisibile a chi non ha gli strumenti per vederla.

Questo significa che la competenza critica — saper fare le domande giuste su chi ha costruito un sistema, su quali dati, con quali assunzioni, per quale scopo — non è un livello inferiore all'ingegneria. È una competenza di ordine diverso, che l'ingegnere spesso non possiede e strutturalmente non può possedere dall'interno del processo produttivo.

La mia formazione di architetto mi ha insegnato qualcosa di utile a questo proposito. L'architettura ha risolto — almeno concettualmente — il problema della gerarchia tra chi progetta e chi abita. Il punto di vista dell'abitante non è una versione degradata della competenza del progettista: è un sapere irriducibile, situato, che il progettista non ha e non può avere. Qualcosa di analogo vale per l'intelligenza artificiale: il punto di vista di chi la subisce, la usa, ci vive dentro è epistemicamente irriducibile al punto di vista di chi la costruisce.


Chi certifica, e perché è un problema

Chi decide chi è esperto?

Il mercato certifica chi vende e chi rassicura. È il tecnocrate che propone soluzioni al manager ignaro dicendogli: fai così e vedrai che risparmi tempo. Le università certificano chi ha percorsi disciplinari consolidati — ingegneria, informatica, matematica — e sono strutturalmente lente a riconoscere saperi nuovi e ibridi. Le istituzioni creano obblighi ma non cultura: la formazione obbligatoria per legge rischia di diventare un adempimento burocratico, un corso da fare e una firma da apporre. Le comunità di pratica certificano per reputazione interna, ma sono tribù per definizione: tendono all'autoreferenzialità.

Nessuno di questi meccanismi produce ciò che servirebbe: una legittimazione fondata sulla qualità del pensiero critico sull'intelligenza artificiale, indipendente dalla disciplina di provenienza.

La domanda viene da me, dalla mia storia — architetto, formatore, consulente, qualcuno che si occupa di governance e valutazione del rischio dei sistemi algoritmici. A un certo punto ho dovuto decidere come chiamare quello che faccio. Ho scelto "esperto di intelligenza artificiale", consapevole che questa etichetta non ha ancora criteri condivisi — e che questa assenza non è un dettaglio, è il cuore del problema.


Il traghettatore non è neutro

C'è una figura che emerge in quasi tutti i discorsi sulla diffusione dell'intelligenza artificiale: il mediatore, il divulgatore, il formatore. Quello che porta le persone ignare verso la consapevolezza. Una figura descritta come necessaria, utile, positiva — e che nella sua descrizione corrente è quasi sempre depoliticizzata, resa innocua.

Ma il traghettatore non è neutro. Non può esserlo.

Ogni traduzione è una scelta di potere. Cosa includo e cosa taccio? Quale domanda insegno a fare — e quale domanda insegno a non fare? Verso quale consapevolezza conduco le persone? Perché c'è una differenza che non è di grado ma di natura tra formare qualcuno a usare meglio gli strumenti esistenti e formare qualcuno a interrogare quegli strumenti — la loro origine, i loro scopi, le relazioni di dipendenza che instaurano. La prima strada produce utenti più abili ma non più liberi. La seconda produce persone capaci di dire no, di pretendere spiegazioni, di rifiutare.

Questa seconda strada è scomoda per chi produce e vende sistemi di intelligenza artificiale. Un utente che pensa davvero fa domande che rallentano l'adozione, complicano i contratti, mettono in discussione le promesse. Il traghettatore che sceglie questa strada non è un mediatore: è un avversario del mercato che ha colonizzato il campo. E deve saperlo.


Cosa manca ai framework correnti

I framework istituzionali trattano l'intelligenza artificiale come un oggetto di conoscenza: qualcosa da capire, classificare, regolamentare. Un approccio relazionale la tratta invece come un campo di relazioni — tra persona e sistema, tra chi usa e i dati, tra organizzazione e tecnologia, tra formatore e apprendente.

Non è una distinzione stilistica. È ontologica. Se l'intelligenza artificiale è un oggetto, la competenza è cognitiva: imparo come funziona. Se è un campo relazionale, la competenza è anche situazionale, contestuale: imparo come mi trasforma, come trasforma le relazioni attorno a me, quali nuove dipendenze crea, quali capacità erode.

Una valutazione del rischio che includa queste dimensioni — relazionali, epistemiche, di potere — è qualcosa di radicalmente diverso da un controllo di conformità normativa. Non chiede solo: questo sistema funziona correttamente?Chiede: questo sistema cambia le relazioni di potere all'interno dell'organizzazione? Chi perde voce? Chi guadagna controllo? Quali saperi vengono delegittimati?


Una risposta provvisoria

Torno alla domanda iniziale. Chi è l'esperto di intelligenza artificiale che serve oggi?

Non chi sa costruire i sistemi. Non chi sa usarli. E nemmeno chi sa spiegarli — almeno non nel senso in cui "spiegare" significa rendere accessibile ciò che esiste, facilitare l'adozione, ridurre la distanza tra la tecnologia e le persone.

Quello che manca — e la cui mancanza è la vera emergenza, non la mancanza di ingegneri o di corsi di aggiornamento — è qualcuno che sappia tenere insieme una comprensione critica di come questi sistemi funzionano, una capacità di leggere le relazioni di potere che generano, e una posizione esplicita su da che parte stare.

Non è un profilo disciplinare. Non si certifica. Non si misura con un test di competenze. È una postura intellettuale e morale — e il fatto che possa venire dall'architettura, dalla filosofia, dalla pedagogia, dalla semiotica, dal diritto, non è una lacuna da colmare con una specializzazione aggiuntiva. È esattamente la condizione che rende possibile vedere ciò che chi viene dall'interno del campo non riesce a vedere.

La domanda "cosa bisogna sapere" era mal posta fin dall'inizio. La domanda giusta è: da che parte stai?

Come scrivo i miei articoli. Parto da un’intuizione, un’irritazione, una domanda che non mi lascia in pace. La sviluppo in un dialogo con diversi modelli di intelligenza artificiale — non come strumenti a cui dare comandi, ma come interlocutori con cui ragionare. Chiedo, contesto, rilancio. Butto via molto. Faccio riscrivere. Cambio modello per cambiare prospettiva. Il testo che leggete è il risultato di questo processo: le idee sono mie, la responsabilità è mia, ma il percorso che le ha portate qui è passato attraverso conversazioni con macchine che mi hanno costretto a pensare meglio — o almeno diversamente. Chi predica trasparenza sull’uso dell’AI deve praticarla. Questo è il mio modo.

Pubblicato il 04 marzo 2026

Martino Pirella

Martino Pirella / Consulente e formatore AI