Go down

Ho passato trent'anni a costruire sistemi che dovevano funzionare. Ho imparato a diffidare di chi vende soluzioni prima di aver capito il problema. Questo articolo nasce da una curiosità: come si costruiscono sistemi multi-agente affidabili quando nessun singolo componente può garantire affidabilità? La risposta tecnica si chiama architettura neuro-simbolica basata su grafi di conoscenza. Non ho cercato di semplificare: la complessità tecnica è la sostanza del problema. Chi arriva in fondo avrà gli strumenti per distinguere promesse di marketing da capacità ingegneristiche reali, e potrà porre domande più consapevoli sui sistemi che governano la vita collettiva.


Introduzione: dalla rappresentazione alla coordinazione

La costruzione di sistemi multi-agente affidabili richiede meccanismi di coordinazione che trascendano la semplice comunicazione punto-a-punto tra componenti. Quando più agenti software devono operare su domini complessi — dall'analisi di documenti normativi alla diagnostica medica, dalla gestione di infrastrutture critiche alla scoperta farmacologica — emerge un problema fondamentale: come garantire che l'interpretazione semantica dei dati rimanga coerente attraverso molteplici processi di elaborazione, ciascuno con architetture, obiettivi e vincoli operativi differenti?

La risposta che la comunità scientifica sta elaborando negli ultimi anni ruota attorno a un cambio di paradigma: i grafi di conoscenza (knowledge graphs, KG) e le ontologie formali non fungono da semplici archivi di dati strutturati, ma da strati di coordinazione semantica attivi. Questa prospettiva trasforma il grafo da artefatto statico a infrastruttura dinamica che media l'interazione tra componenti simboliche e subsimboliche, garantendo al contempo interpretabilità, tracciabilità e allineamento semantico.

Fondamenti teorici: dalla logica del primo ordine all'integrazione neuro-simbolica

Satisfiability Modulo Theories e ragionamento deterministico

La verifica formale di proprietà su sistemi complessi richiede strumenti di ragionamento automatizzato capaci di gestire teorie matematiche eterogenee. I risolutori SMT (Satisfiability Modulo Theories) rappresentano l'evoluzione dei risolutori SAT (Boolean Satisfiability) verso logiche più espressive. Un risolutore SMT, come Z3 sviluppato da Microsoft Research, affronta il problema decisionale per formule logiche del primo ordine rispetto a combinazioni di teorie di background: aritmetica (intera e reale), vettori di bit, array, funzioni non interpretate.

Z3 utilizza un'architettura DPLL(T) che integra un risolutore SAT basato su conflict-driven clause learning (CDCL) con procedure decisionali specializzate per teorie specifiche. Il formato SMT-LIB2 definisce una logica multi-ordinata (many-sorted) del primo ordine con un insieme di frammenti decidibili. Per esempio, la logica QF_LIA (quantifier-free linear integer arithmetic) permette formule senza quantificatori dove le variabili assumono valori interi, le funzioni ammissibili includono addizione, sottrazione, moltiplicazione per costanti, divisione e modulo, mentre le relazioni includono uguaglianza e ordinamento.

La rilevanza di Z3 per i sistemi multi-agente risiede nella sua capacità di fornire verifiche deterministiche di vincoli complessi. Quando un sistema converte politiche espresse in linguaggio naturale in formule logiche formali, Z3 può validare la coerenza di queste politiche, rilevare conflitti normativi e verificare proprietà di sicurezza senza la stocasticità intrinseca dei modelli linguistici.

Logica multi-ordinata e rappresentazione ontologica

La logica multi-ordinata introduce un sistema di tipi semplice per le formule logiche, garantendo che termini di ordinamenti diversi non possano mai essere comparati per uguaglianza. Questa struttura si adatta naturalmente alla rappresentazione ontologica, dove differenti categorie di entità (persone, organizzazioni, eventi, concetti astratti) abitano spazi semantici distinti ma interconnessi.

Un'ontologia formale definisce:

  • Un insieme di classi (concetti) organizzate gerarchicamente
  • Relazioni tipizzate tra classi (proprietà di oggetto)
  • Attributi delle classi (proprietà di dato)
  • Vincoli logici espressi come assiomi

Nel contesto dei grafi di conoscenza, le ontologie forniscono lo schema che governa la struttura del grafo. RDF (Resource Description Framework) e OWL (Web Ontology Language) costituiscono gli standard del W3C per la rappresentazione di conoscenza sul Web Semantico. Una tripla RDF (soggetto, predicato, oggetto) esprime un fatto atomico, mentre OWL aggiunge espressività logica mediante costruttori di classi, restrizioni di cardinalità, proprietà transitiva e simmetrica, disgiunzione e negazione.

Architettura 1: Il grafo come protocollo di comunicazione semantica

Coordinazione indiretta mediante spazio tuple semantico

L'approccio tradizionale ai sistemi multi-agente prevede comunicazione diretta tramite protocolli come FIPA-ACL (Foundation for Intelligent Physical Agents - Agent Communication Language) o sistemi di messaggistica asincrona. Questo modello genera complessità di coordinamento O(n²) per n agenti, richiede negoziazione esplicita di ontologie condivise e introduce accoppiamento temporale tra mittente e destinatario.

Il paradigma alternativo — che potremmo definire coordinazione mediante spazio tuple semantico — elimina la comunicazione diretta sostituendola con operazioni di lettura e scrittura su un grafo di conoscenza condiviso. Gli agenti:

  1. Scrivono sul grafo asserzioni nella forma di triple RDF
  2. Leggono dal grafo mediante interrogazioni SPARQL o attraversamenti grafici
  3. Non comunicano mai direttamente tra loro

Questo modello offre vantaggi significativi:

Disaccoppiamento temporale: L'Agente A può scrivere informazioni che l'Agente B leggerà successivamente, senza sincronizzazione esplicita.

Disaccoppiamento semantico: Non serve negoziare un linguaggio di comunicazione comune. L'ontologia sottostante al grafo fornisce il vocabolario condiviso.

Allineamento semantico automatico: Se l'Agente A estrae l'entità "paziente affetto da ipertensione essenziale primaria" e l'Agente B applica regole normative sulla categoria ICD-10, entrambi mappano le loro rappresentazioni sullo stesso nodo ontologico, garantendo coerenza senza coordinazione esplicita.

Tracciabilità e provenienza: Ogni asserzione nel grafo può essere annotata con metadati di provenienza (quale agente l'ha generata, con quale confidenza, basandosi su quali fonti), abilitando controllo e spiegabilità.

Implementazione: dalla teoria alla pratica

L'implementazione di questo paradigma richiede:

  1. Architettura di memorizzazione: Triple store RDF nativi (Jena TDB, RDF4J, GraphDB) o database a grafo che supportano proprietà tipizzate (Neo4j con semantiche RDF)
  2. Meccanismi di coerenza: Reasoner OWL (Pellet, HermiT, ELK) che verificano la coerenza logica del grafo dopo ogni aggiornamento
  3. Controllo della concorrenza: Transazioni ACID o meccanismi di versionamento per gestire scritture concorrenti
  4. Indicizzazione semantica: Strutture dati che accelerano il riconoscimento di pattern su sottografi e interrogazioni SPARQL complesse

Architettura 2: Normalizzazione al confine mediante entity linking

Il problema dell'ambiguità semantica

Quando un agente riceve input in linguaggio naturale — un documento normativo, una cartella clinica, un rapporto tecnico — deve trasformare sequenze testuali in entità semantiche ben definite. Questo processo, noto come estrazione di informazione, comprende diverse sottofasi:

  1. Named Entity Recognition (NER): Identificazione di porzioni testuali che menzionano entità
  2. Named Entity Disambiguation (NED): Risoluzione di riferimenti ambigui
  3. Entity Linking (NEL): Mappatura su identificatori univoci in una base di conoscenza
  4. Relation Extraction (RE): Identificazione di relazioni semantiche tra entità

La fase critica è il collegamento: associare menzioni testuali a nodi canonici nel grafo di conoscenza. Senza questo passaggio, due agenti che processano il termine "Apple" potrebbero interpretarlo come frutto, azienda tecnologica o etichetta discografica, generando incoerenze catastrofiche nel sistema complessivo.

Pipeline di normalizzazione

Il pattern architetturale che emerge dalla letteratura segue questo schema rigoroso:

Input grezzo → Preprocessamento → NER → Risoluzione di coreferenza → Disambiguazione entità → Entity Linking → Validazione ontologica → Entità canoniche → Processamento agenti

Ogni stadio ha responsabilità precise:

Preprocessamento: Tokenizzazione, segmentazione in frasi, normalizzazione ortografica. Modelli come spaCy forniscono pipeline efficienti per lingue multiple.

Named Entity Recognition: Modelli transformer ottimizzati su domini specifici identificano porzioni testuali. BioBERT per testi biomedici, FinBERT per documenti finanziari, LegalBERT per testi normativi raggiungono accuratezze superiori al 90% su dataset annotati.

Risoluzione di coreferenza: Sistemi neurali (AllenNLP, NeuralCoref) risolvono riferimenti anaforici e cataforici. "Il paziente presenta sintomi. Egli riferisce dolore" → entrambe le menzioni mappano sulla stessa entità.

Disambiguazione di entità: Quando una menzione può riferirsi a molteplici entità, algoritmi di classificazione sfruttano:

  • Similarità tra rappresentazione vettoriale contestuale della menzione e descrizioni delle entità candidate
  • Coerenza semantica con entità già collegate nel documento
  • Probabilità a priori basate su frequenze in corpus

Entity Linking: Mappatura su IRI (Internationalized Resource Identifier) di basi di conoscenza esterne. DBpedia, Wikidata, basi di conoscenza dominio-specifiche come UMLS per medicina o SNOMED CT per terminologia clinica.

Validazione ontologica: Verifica che l'entità collegata sia compatibile con i vincoli dello schema ontologico. Se un agente tenta di asserire che un'entità di tipo "Farmaco" ha relazione "diagnosiOf" con un "Paziente", la validazione rileva l'errore semantico (i farmaci non diagnosticano).

Caso di studio: costruzione di grafi di conoscenza medici

Uno studio recente ha proposto un framework automatizzato che combina Retrieval-Augmented Generation con modelli linguistici per costruire grafi di conoscenza di indicatori medici. Il processo include:

  1. Acquisizione guidata da linee guida: Estrazione di testi da documenti clinici ufficiali
  2. Progettazione ontologica: Definizione dello schema mediante collaborazione con esperti di dominio
  3. Estrazione supervisionata: Un modello linguistico di grandi dimensioni esegue riconoscimento di entità, estrazione di relazioni e identificazione di attributi
  4. Allineamento ontologico: I risultati vengono organizzati in triple (soggetto-relazione-oggetto) e allineati con l'ontologia predefinita
  5. Normalizzazione di entità: Risoluzione di sinonimi e variazioni lessicali
  6. Disambiguazione di relazioni: Mappatura di associazioni estratte su semantiche ontologiche
  7. Integrazione con standard: Interoperabilità con UMLS e SNOMED CT

Il framework include validazione umana in ciclo iterativo: esperti identificano incoerenze e ambiguità, il feedback viene reintegrato per raffinare modelli di prompt e regole di estrazione, migliorando progressivamente le prestazioni del sistema.

Architettura 3: Separazione temporale tra formulazione e inferenza

Fase offline: conversione neuro-simbolica di politiche

Un pattern architetturale potente separa nettamente due fasi operative:

Fase offline (eseguita raramente, con validazione umana intensiva):

  • Un modello linguistico di grandi dimensioni analizza documenti normativi, politiche aziendali, standard di sicurezza
  • Converte regole espresse in linguaggio naturale in formule logiche del primo ordine multi-ordinate
  • Gli esperti di dominio verificano la correttezza semantica delle formule generate
  • Le formule validate vengono compilate e ottimizzate
  • Il risultato viene distribuito in produzione come base di conoscenza simbolica immutabile

Fase online (eseguita ad alta frequenza, deterministicamente):

  • Un modello linguistico piccolo (BERT-base, modelli distillati) estrae entità e attributi dall'input
  • Un risolutore SMT (Z3, CVC5, Yices) valuta le formule logiche sulle entità estratte
  • Il sistema produce decisioni con stocasticità zero e latenza prevedibile

Vantaggi del modello ibrido

Questo approccio combina i punti di forza di paradigmi complementari:

Dai modelli linguistici: Capacità di interpretare linguaggio naturale complesso, gestire variabilità lessicale, apprendere pattern impliciti da grandi corpus

Dalla logica formale: Verificabilità matematica, assenza di allucinazioni, spiegabilità completa, prestazioni deterministiche

L'applicazione a scenari normativi è particolarmente promettente. Sistemi neuro-simbolici hanno dimostrato capacità di:

  • Rilevare incoerenze statutarie in codici legali complessi come l'Internal Revenue Code statunitense
  • Verificare conformità di contratti rispetto a regolamentazioni settoriali
  • Automatizzare analisi di rischio in contratti di costruzione mediante Nested Contract Knowledge Graph (NCKG)

Il NCKG rappresenta contratti mediante uno strato di rappresentazione con conoscenza nidificata e uno strato ontologico, catturando relazioni semantiche multi-livello inerenti ai contratti. Un framework basato su Graph Retrieval-Augmented Generation (GraphRAG) integra questo grafo con modelli linguistici di grandi dimensioni per identificazione automatizzata dei rischi contrattuali.

Architettura 4: Auto-evoluzione mediante regole ontologiche

Il framework Evontree: dall'estrazione alla validazione alla reintegrazione

Un limite fondamentale dei modelli linguistici è la loro conoscenza implicita e non strutturata. Evontree propone un paradigma innovativo che sfrutta regole ontologiche per identificare e correggere lacune conoscitive nei modelli linguistici di grandi dimensioni attraverso un ciclo di auto-evoluzione.

Metodologia in tre stadi

Stadio 1: Estrazione esplicita di conoscenza ontologica

Un modello linguistico viene interrogato sistematicamente per estrarre triple ontologiche nel formato (entità₁, relazione, entità₂). Per il dominio medico:

  • "L'ipertensione è un tipo di malattia cardiovascolare" → (Ipertensione, sottoclasseDi, MalattiaCardiovascolare)
  • "L'aspirina è utilizzata per trattare la cefalea" → (Aspirina, tratta, Cefalea)

Stadio 2: Validazione mediante regole logiche

Due regole ontologiche fondamentali vengono applicate:

Regola R1 (Transitività sinonimica-gerarchica):

SE (x sinonimoDi y) ∧ (y sottoclasseDi z) 
ALLORA (x sottoclasseDi z)

Regola R2 (Transitività gerarchica):

SE (x sottoclasseDi y) ∧ (y sottoclasseDi z) 
ALLORA (x sottoclasseDi z)

Per ogni tripla estratta, il sistema calcola ConfirmValue — una metrica di confidenza basata sulla perplessità del modello. Le triple vengono classificate in:

  • Triple confermate: Alta confidenza e validate dalle regole
  • Triple di lacuna: Logicamente valide (inferibili tramite R1 o R2) ma bassa confidenza → il modello dovrebbeconoscerle ma non le conosce con certezza

Stadio 3: Reintegrazione mediante auto-distillazione

Le triple di lacuna identificano esattamente dove la conoscenza del modello è incoerente. Il framework:

  1. Genera esempi sintetici che incorporano queste triple
  2. Riottimizza il modello originale su questi esempi (auto-distillazione)
  3. Reinserisce la conoscenza raffinata nel modello

Risultati empirici

Esperimenti su benchmark medici (MedMCQA, MedQA, PubMedQA) con Llama3-8B-Instruct e Med42-v2 dimostrano:

  • Llama3-8B-Instruct: miglioramento medio del 3,1% rispetto al modello base, 0,9% rispetto al miglior baseline supervisionato
  • Med42-v2 (già ottimizzato su corpus medico): miglioramento medio del 3,7% rispetto al modello base, 1,1% rispetto al baseline supervisionato

Questi risultati sono ottenuti utilizzando solo 1.396 triple identificate come lacune, dimostrando che la qualità guidata da vincoli logici supera la quantità indiscriminata di dati.

Il confronto con metodi alternativi rivela che:

  • L'iniezione esplicita di ontologie (TaxoLLaMA) non migliora significativamente le prestazioni
  • L'iniezione implicita e mista (Evontree, OntoTune) genera miglioramenti sostanziali
  • Corpus dominio-specifici frammentati possono introdurre conoscenza conflittuale che aumenta la confusione del modello

Architettura 5: Recupero contestuale di sottografi dinamici

Il problema della scalabilità

I grafi di conoscenza biomedici contengono milioni di entità. UMLS (Unified Medical Language System) integra oltre 200 vocabolari controllati con più di 4 milioni di concetti. Caricare l'intero grafo nel contesto di ogni richiesta è computazionalmente proibitivo e semanticamente inefficiente: la maggior parte delle informazioni è irrilevante per l'interrogazione specifica.

Strategia di estrazione adattiva

La soluzione prevede estrazione dinamica di sottografi rilevanti mediante:

1. Identificazione di concetti seme: Dall'interrogazione dell'utente, estrai entità chiave mediante NER. "Quali sono le interazioni farmacologiche tra aspirina e warfarin?" → semi: {Aspirina, Warfarin}

2. Espansione a N salti: Attraversa il grafo per N passi dai semi, raccogliendo nodi e archi nel vicinato semantico. Con N=2:

  • Salto 1: Entità direttamente connesse (farmaci simili, condizioni trattate)
  • Salto 2: Entità connesse a quelle del Salto 1 (meccanismi d'azione, vie metaboliche)

3. Filtri semantici: Applica vincoli su:

  • Tipo di relazione (prioritizza "interagisceCon", "controindicato", "meccanismoDi")
  • Confidenza degli archi (scarta connessioni sotto soglia)
  • Rilevanza del dominio (privilegia concetti cardiovascolari se l'interrogazione lo suggerisce)

4. Ordinamento per rilevanza: Assegna punteggi basati su:

  • Distanza semantica dai semi (similarità tra rappresentazioni vettoriali)
  • Centralità nella rete (PageRank, betweenness)
  • Copertura di diverse dimensioni semantiche (diversità)

5. Memorizzazione nella cache intelligente: Memorizza pattern frequenti. Se molte interrogazioni riguardano "interazioni farmaco-farmaco", precalcola sottografi per coppie comuni.

Recupero ibrido neuro-simbolico

L'approccio più efficace combina:

Ricerca vettoriale: Rappresentazioni vettoriali dense di entità e interrogazioni in spazi vettoriali ad alta dimensionalità. Modelli come BioLinkBERT o SapBERT generano rappresentazioni che catturano similarità semantica. Approximate Nearest Neighbor (ANN) con HNSW o FAISS recupera candidati rapidamente.

Attraversamento grafico: Esplorazione della struttura del grafo mediante percorsi minimi, passeggiate casuali o algoritmi di classificazione specifici per grafi (PersonalizedPageRank). Cattura relazioni strutturali esplicite.

Fusione dei risultati: Algoritmi di fusione delle classifiche (Reciprocal Rank Fusion, CombSUM) integrano ordinamenti vettoriale e strutturale, producendo l'insieme finale di entità e relazioni rilevanti.

Applicazione a sistemi multi-agente

In un framework come KARMA (Knowledge graph enrichment via Multi-Agent collaboration), nove agenti collaborativi si suddividono in:

  • Agenti di scoperta di entità: Identificano nuove entità in letteratura scientifica
  • Agenti di estrazione di relazioni: Estraggono relazioni semantiche tra entità
  • Agenti di allineamento dello schema: Assicurano conformità con l'ontologia di dominio
  • Agenti di risoluzione dei conflitti: Rilevano e risolvono incoerenze

Ogni agente opera su sottografi estratti dinamicamente in base al suo ruolo. Un esperimento su 1.200 articoli PubMed nei domini genomica, proteomica e metabolomica ha identificato 38.230 nuove entità con l'83,1% di correttezza verificata da modelli linguistici e riduzione del 18,6% di archi conflittuali attraverso valutazioni multi-livello.

Prospettive critiche e direzioni di ricerca

Limiti computazionali e scalabilità

L'attraversamento di grafi molto grandi presenta complessità computazionale significativa. Il calcolo dei percorsi minimi su grafi con milioni di nodi richiede algoritmi efficienti (A* con euristiche dominio-specifiche, algoritmi approssimati). L'inferenza OWL completa (con quantificatori, negazione, disgiunzione) è indecidibile nel caso generale e EXPTIME-completa per frammenti decidibili. I reasoner pratici impongono restrizioni sull'espressività (profili OWL-EL, OWL-QL, OWL-RL) per garantire trattabilità.

Manutenzione e evoluzione ontologica

Le ontologie non sono statiche. Nuove scoperte scientifiche, cambiamenti normativi, evoluzioni tecnologiche richiedono aggiornamenti continui. Chi mantiene l'ontologia? Con quale frequenza? Come garantire retrocompatibilità? La evoluzione ontologica è area di ricerca attiva con sfide aperte:

  • Propagazione di modifiche attraverso gerarchie complesse
  • Gestione di versioni multiple coesistenti
  • Migrazione di dati annotati con ontologie obsolete

Fragilità dei sistemi simbolici

I sistemi puramente simbolici sono fragili fuori dal dominio definito. Se l'ontologia non prevede un concetto, il sistema non può gestirlo. Questo contrasta con la robustezza (relativa) dei modelli neurali che generalizzano anche su input fuori distribuzione. L'integrazione neuro-simbolica cerca di bilanciare rigidità e flessibilità, ma il problema rimane aperto: quando fidarsi del componente neurale rispetto a quello simbolico?

Costi umani e sostenibilità

La validazione offline richiede esperti di dominio altamente qualificati. Tradurre politiche complesse in logica formale è lavoro intensivo. La creazione e manutenzione di ontologie dominio-specifiche richiede collaborazione prolungata tra logici, ingegneri della conoscenza e specialisti. Questi costi sono sostenibili a lungo termine? Per quali domini e applicazioni l'investimento è giustificato?

Questioni epistemologiche

Che tipo di "conoscenza" rappresenta un grafo di conoscenza? Le triple RDF codificano fatti atomici, ma la conoscenza umana è contestuale, sfumata, spesso contraddittoria. Le ontologie formalizzano categorizzazioni che possono essere culturalmente situate o temporalmente contingenti. I sistemi neuro-simbolici ereditano limiti di entrambi i paradigmi: l'opacità delle reti neurali e la rigidità delle rappresentazioni simboliche.

Conclusioni: verso ecosistemi cognitivi ibridi

I grafi di conoscenza e le ontologie formali stanno emergendo come infrastrutture critiche per sistemi multi-agente che richiedono affidabilità, tracciabilità e allineamento semantico. I pattern architetturali analizzati — coordinazione indiretta mediante spazio tuple semantico, normalizzazione al confine, separazione temporale tra formulazione e inferenza, auto-evoluzione guidata da vincoli logici, recupero dinamico di sottografi — rappresentano componenti riusabili per costruire sistemi robusti e interpretabili.

L'integrazione neuro-simbolica non è soluzione universale, ma strumento potente per domini dove:

  1. La verificabilità formale è requisito essenziale (sicurezza, conformità normativa, diagnostica medica)
  2. La conoscenza di dominio è codificabile in ontologie ben definite
  3. L'interpretabilità e la spiegabilità sono prioritarie
  4. Le decisioni richiedono giustificazioni tracciabili

Le direzioni di ricerca future includono:

  • Algoritmi di ragionamento approssimato per grafi su larga scala
  • Tecniche di apprendimento continuo per ontologie evolutive
  • Architetture ibride che allocano dinamicamente compiti tra componenti neurali e simbolici
  • Framework standardizzati per valutazione comparativa di sistemi neuro-simbolici
  • Metodologie per co-progettazione di ontologie e modelli neurali

La tensione creativa tra flessibilità statistica e rigore logico continuerà a guidare l'evoluzione di questi sistemi. Il successo non risiederà nella dominanza di un paradigma sull'altro, ma nella sintesi armonica delle loro capacità complementari.


Note bibliografiche

Satisfiability Modulo Theories e Z3

[1] de Moura, Leonardo, and Nikolaj Bjørner. "Z3: An efficient SMT solver." Tools and Algorithms for the Construction and Analysis of Systems: 14th International Conference, TACAS 2008. Springer Berlin Heidelberg, 2008. DOI: 10.1007/978-3-540-78800-3_24

[2] Bjørner, Nikolaj, and Leonardo de Moura. "Programming Z3." Tutorial at Microsoft Research (2012). Disponibile: https://theory.stanford.edu/~nikolaj/programmingz3.html

[3] Barrett, Clark, et al. "Satisfiability modulo theories." Handbook of satisfiability 185.2018 (2009): 305-343.

Evontree e auto-evoluzione ontologica

[4] "Evontree: Ontology Rule-Guided Self-Evolution of Large Language Models." arXiv preprint arXiv:2510.26683 (2024). Esperimenti su Llama3-8B-Instruct e Med42-v2 mostrano miglioramenti del 3,1% e 3,7% rispettivamente su benchmark medici (MedMCQA, MedQA, PubMedQA) utilizzando solo 1.396 triple ontologiche identificate come lacune conoscitive.

Named Entity Recognition e Entity Linking per grafi di conoscenza

[5] Al-Moslmi, Tareq, et al. "Named entity extraction for knowledge graphs: A literature overview." IEEE Access 8 (2020): 32862-32881. DOI: 10.1109/ACCESS.2020.2973928

[6] Jaradeh, Mohamad Yaser, et al. "Information extraction pipelines for knowledge graphs." Knowledge and Information Systems 65.5 (2023): 1989-2016. DOI: 10.1007/s10115-022-01826-x

Costruzione automatizzata di grafi di conoscenza medici

[7] "Automated Construction of Medical Indicator Knowledge Graphs Using Retrieval Augmented Large Language Models." arXiv preprint arXiv:2511.13526 (2024). Framework che combina RAG con modelli linguistici di grandi dimensioni per costruzione automatizzata di grafi di conoscenza medica mediante acquisizione guidata da linee guida, progettazione ontologica, estrazione supervisionata e validazione esperta in ciclo.

[8] "Ontology accelerates few-shot learning capability of large language model: A study in extraction of drug efficacy in a rare pediatric epilepsy." International Journal of Medical Informatics (2025). Il framework PCL (Phased In-Context Learning) arricchito con ontologia raggiunge il 100% di accuratezza nella riproduzione di dataset di efficacia farmacologica per Sindrome di Dravet con apprendimento a due esempi soltanto.

Sistemi neuro-simbolici multi-agente

[9] "KARMA: Leveraging Multi-Agent LLMs for Automated Knowledge Graph Enrichment." arXiv preprintarXiv:2502.06472 (2025). Framework con nove agenti collaborativi che identifica 38.230 nuove entità da 1.200 articoli PubMed con l'83,1% di correttezza verificata e riduzione del 18,6% di conflitti.

[10] "SymAgent: A Neural-Symbolic Self-Learning Agent Framework for Complex Reasoning over Knowledge Graphs." arXiv preprint arXiv:2502.03283 (2025). Framework che concettualizza i grafi di conoscenza come ambienti dinamici, trasformando compiti di ragionamento complesso in processi interattivi multi-fase.

[11] "CLAUSE: Agentic Neuro-Symbolic Knowledge Graph Reasoning via Dynamic Learnable Context Engineering." arXiv preprint arXiv:2509.21035 (2025). Framework a tre agenti (Subgraph Architect, Path Navigator, Context Curator) che gestisce la costruzione di contesto come processo decisionale sequenziale su grafi di conoscenza con budget espliciti per latenza e costi.

[12] "A Neuro-Symbolic Multi-Agent Approach to Legal–Cybersecurity Knowledge Integration." arXiv preprintarXiv:2510.23443 (2024). Integrazione di framework legale-normativo (CEPS-Zenner, NIS2) con documentazione tecnica di cybersecurity (MITRE ATT&CK) mediante architettura neuro-simbolica multi-agente.

Integrazione neuro-simbolica e intelligenza artificiale generativa

[13] Lamb, Luis C., et al. "Neurosymbolic AI for reasoning over knowledge graphs: A survey from a query perspective." arXiv preprint arXiv:2412.10390 (2024). Rassegna completa su metodi neuro-simbolici per ragionamento su grafi di conoscenza, includendo approcci basati su rappresentazioni vettoriali logicamente informate, apprendimento per rinforzo e modelli ibridi.

[14] "Unlocking the Potential of Generative AI through Neuro-Symbolic Architectures – Benefits and Limitations." arXiv preprint arXiv:2502.11269 (2025). Analisi di architetture sequenziali, nidificate e fibrate per integrazione di componenti neurali e simboliche, con applicazioni a sistemi agentici basati su modelli linguistici di grandi dimensioni.

Grafi di conoscenza per coordinazione multi-agente

[15] "A Knowledge-Graph Translation Layer for Mission-Aware Multi-Agent Path Planning in Spatiotemporal Dynamics." arXiv preprint arXiv:2510.21695 (2024). Framework centrato su grafo di conoscenza come strato di traduzione intelligente che compila fatti dichiarativi in visioni del mondo mission-aware per singoli agenti e regole di attraversamento physics-aware.

Grafi di conoscenza per accordi commerciali

[16] Alschner, Wolfgang, Julia Seiermann, and Dmitriy Skougarevskiy. "Text-as-data analysis of preferential trade agreements: mapping the PTA landscape." World Trade Review 16.3 (2017): 341-370. Il corpus ToTA (Text of Trade Agreements) comprende 448 accordi commerciali notificati al WTO in formato leggibile dalle macchine.

[17] Nandini, Durgesh, et al. "Towards Structured Knowledge: Advancing Triple Extraction from Regional Trade Agreements Using Large Language Models." Web Engineering: ICWE 2025. Springer, 2026. Utilizzo di Llama 3.1 per estrazione di triple da testi di accordi commerciali regionali mediante tecniche di prompting zero-shot, one-shot e few-shot.

Applicazioni a contratti e conformità

[18] Zheng, Chunmo, et al. "Automating construction contract review using knowledge graph-enhanced large language models." Automation in Construction (2025). DOI: 10.1016/j.autcon.2025.105719. Framework NCKG (Nested Contract Knowledge Graph) per revisione automatizzata di contratti di costruzione mediante GraphRAG con superiorità su metodi basati solo su modelli linguistici di grandi dimensioni e su metodi basati su database vettoriali in accuratezza e interpretabilità.

Ontologie mediche e sistemi sanitari

[19] "Large language models for intelligent RDF knowledge graph construction: results from medical ontology mapping." Frontiers in Artificial Intelligence 8 (2025): 1546179. Analisi comparativa di sei sistemi (GPT-4o, Claude 3.5 Sonnet v2, Gemini 1.5 Pro, Llama 3.3 70B, DeepSeek R1, BERTMap) per mappatura di ontologie mediche come SNOMED CT. GPT-4o raggiunge precisione del 93,75%.


Glossario tecnico

Satisfiability Modulo Theories (SMT): Problema decisionale per formule logiche del primo ordine rispetto a combinazioni di teorie di background (aritmetica, vettori di bit, array, funzioni non interpretate).

Logica del primo ordine multi-ordinata: Logica del primo ordine con sistema di tipi semplice dove ogni termine appartiene a un ordinamento (sort) e termini di ordinamenti diversi non possono essere comparati.

Entity Linking (NEL): Processo di associazione di menzioni testuali di entità a identificatori univoci in una base di conoscenza esterna (IRI in RDF/OWL).

Named Entity Recognition (NER): Identificazione di porzioni testuali che menzionano entità nominate (persone, organizzazioni, luoghi, concetti specifici).

Risoluzione di coreferenza: Risoluzione di riferimenti anaforici e cataforici per determinare quando diverse menzioni si riferiscono alla stessa entità.

RDF (Resource Description Framework): Standard W3C per rappresentazione di informazione come grafi mediante triple (soggetto, predicato, oggetto).

OWL (Web Ontology Language): Linguaggio formale basato su logica descrittiva per definizione di ontologie con espressività controllata.

SPARQL: Linguaggio di interrogazione per grafi RDF, analogo di SQL per database relazionali.

Reasoner OWL: Sistema di inferenza che deriva nuova conoscenza da assiomi ontologici mediante regole logiche (sussunzione, classificazione, verifica di coerenza).

Triple Store: Database ottimizzato per memorizzazione e recupero di triple RDF con supporto per ragionamento e interrogazioni SPARQL.

Graph Retrieval-Augmented Generation (GraphRAG): Paradigma che integra recupero di sottografi rilevanti da grafi di conoscenza con generazione di linguaggio naturale mediante modelli linguistici di grandi dimensioni.

Auto-distillazione: Tecnica di addestramento dove un modello viene riottimizzato su esempi generati o validati dal modello stesso, spesso dopo processamento esterno (guidato da ontologie nell'approccio Evontree).

Perplessità: Metrica che quantifica l'incertezza di un modello linguistico su una sequenza di token; perplessità bassa indica alta confidenza.

DPLL(T): Estensione dell'algoritmo DPLL (Davis-Putnam-Logemann-Loveland) per risoluzione SAT che integra procedure decisionali per teorie specifiche (Theory Solvers).

Conflict-Driven Clause Learning (CDCL): Algoritmo per risoluzione SAT che apprende clausole dai conflitti durante la ricerca, potando lo spazio di ricerca.

IRI (Internationalized Resource Identifier): Generalizzazione di URI che supporta caratteri Unicode, utilizzato come identificatore univoco di risorse nel Web Semantico.

UMLS (Unified Medical Language System): Metatesauro che integra oltre 200 vocabolari medici controllati con più di 4 milioni di concetti.

SNOMED CT (Systematized Nomenclature of Medicine - Clinical Terms): Ontologia medica clinica completa con terminologia standardizzata multilingue.

StultiferaBiblio

Pubblicato il 23 novembre 2025

Calogero (Kàlos) Bonasia

Calogero (Kàlos) Bonasia / etiam capillus unus habet umbram suam