RAG è morto? L'ascesa del Context Engineering e dei Livelli Semantici per l'AI Agente
La Retrieval-Augmented Generation (RAG) è stata una tecnica necessaria per la prima ondata di intelligenza artificiale in ambito aziendale, ma sta rapidamente evolvendo in qualcosa di molto più grande. Negli ultimi due anni, le organizzazioni hanno realizzato che il semplice recupero di frammenti di testo tramite la ricerca vettoriale non è sufficiente. Il contesto deve essere governato, spiegabile e adattabile allo scopo di un agente.
Questo articolo esplora come tale evoluzione stia prendendo forma e cosa significhi per i leader di dati e AI che costruiscono sistemi in grado di ragionare responsabilmente. Vi forniremo risposte a alcune domande chiave:
Come i knowledge graph migliorano il RAG?
I knowledge graph forniscono struttura e significato ai dati aziendali, collegando entità e relazioni attraverso documenti e database per rendere il recupero più accurato e spiegabile sia per gli esseri umani che per le macchine.
Come i livelli semantici aiutano gli LLM a recuperare risposte migliori?
I livelli semantici standardizzano le definizioni dei dati e le politiche di governance, in modo che gli agenti AI possano comprendere, recuperare e ragionare su tutti i tipi di dati, nonché su strumenti AI, memorie e altri agenti.
Come si sta evolvendo il RAG nell'era dell'AI agente?
Il recupero sta diventando un passo in un ciclo di ragionamento più ampio (sempre più spesso chiamato "context engineering") in cui gli agenti scrivono, comprimono, isolano e selezionano dinamicamente il contesto attraverso dati e strumenti.
Il Retrieval-Augmented Generation (RAG) è salito alla ribalta dopo il lancio di ChatGPT e la consapevolezza che esiste un limite alla finestra di contesto: non si può semplicemente copiare tutti i propri dati nell'interfaccia di chat. I team hanno utilizzato il RAG e le sue varianti, come il GraphRAG (RAG che utilizza un database a grafo), per portare contesto aggiuntivo nei prompt al momento dell'interrogazione. La popolarità del RAG ha presto rivelato le sue debolezze: inserire informazioni errate, irrilevanti o semplicemente troppe nella finestra di contesto può effettivamente degradare anziché migliorare i risultati. Nuove tecniche come i re-ranker sono state sviluppate per superare queste limitazioni, ma il RAG non era stato costruito per sopravvivere nel nuovo mondo dell'AI agente.
Man mano che l'AI passa da singoli prompt ad agenti autonomi, il recupero e le sue varianti sono solo uno strumento nella "cassetta degli attrezzi" di un agente, insieme alla scrittura, compressione e isolamento del contesto. Man mano che la complessità dei flussi di lavoro e delle informazioni richieste per completarli cresce, il recupero continuerà a evolversi (sebbene possa essere chiamato context engineering, RAG 2.0 o agentic retrieval). La prossima era del recupero (o context engineering) richiederà la gestione dei metadati attraverso strutture di dati (non solo relazionali) così come strumenti, memorie e gli agenti stessi. Valuteremo il recupero non solo per l'accuratezza, ma anche per la rilevanza, la fondatezza, la provenienza, la copertura e la recenza. I knowledge graph saranno fondamentali per un recupero consapevole del contesto, delle politiche e semanticamente fondato.
L'ascesa del RAG
Cos'è il RAG?
Il RAG, o Retrieval-Augmented Generation, è una tecnica per recuperare informazioni pertinenti al fine di aumentare un prompt che viene inviato a un LLM per migliorare la risposta del modello.
Poco dopo che ChatGPT è diventato mainstream nel novembre 2022, gli utenti hanno realizzato che gli LLM non erano (si spera) addestrati sui loro dati. Per colmare questa lacuna, i team hanno iniziato a sviluppare modi per recuperare dati pertinenti al momento dell'interrogazione per aumentare il prompt – un approccio noto come retrieval-augmented generation (RAG). Il termine proveniva da un paper di Meta del 2020, ma la popolarità dei modelli GPT ha portato il termine e la pratica sotto i riflettori.
Strumenti come LangChain e LlamaIndex hanno aiutato gli sviluppatori a costruire queste pipeline di recupero. LangChain è stato lanciato all'incirca nello stesso periodo di ChatGPT come un modo per concatenare diversi componenti come modelli di prompt, LLM, agenti e memoria per applicazioni di AI generativa. LlamaIndex è stato anch'esso lanciato contemporaneamente come un modo per affrontare la finestra di contesto limitata in GPT3 e quindi abilitare il RAG. Mentre gli sviluppatori sperimentavano, hanno realizzato che i database vettoriali forniscono un modo rapido e scalabile per alimentare la parte di recupero del RAG, e database vettoriali come Weaviate, Pinecone e Chroma sono diventati parti standard dell'architettura RAG.
Cos'è il GraphRAG?
Il GraphRAG è una variazione del RAG in cui il database sottostante utilizzato per il recupero è un knowledge graph o un database a grafo.
Una variazione del RAG è diventata particolarmente popolare: il GraphRAG. L'idea qui è che i dati sottostanti per integrare i prompt degli LLM siano archiviati in un knowledge graph. Ciò consente al modello di ragionare su entità e relazioni piuttosto che su semplici frammenti di testo. All'inizio del 2023, i ricercatori hanno iniziato a pubblicare articoli che esploravano come i knowledge graph e gli LLM potessero completarsi a vicenda. Alla fine del 2023, Juan Sequeda, Dean Allemang e Bryon Jacob di data.world hanno rilasciato un paper che dimostrava come i knowledge graph possano migliorare l'accuratezza e la spiegabilità degli LLM. Nel luglio 2024, Microsoft ha rilasciato il suo framework GraphRAG open-source, che ha reso il recupero basato su grafo accessibile a un pubblico di sviluppatori più ampio e ha consolidato il GraphRAG come categoria riconoscibile all'interno del RAG.
L'ascesa del GraphRAG ha riacceso l'interesse per i knowledge graph, in modo simile a quando Google ha lanciato il suo Knowledge Graph nel 2012. L'improvvisa domanda di contesto strutturato e recupero spiegabile ha dato loro nuova rilevanza.
Il mercato risponde
Dal 2023-2025, il mercato ha risposto rapidamente:
- 23 gennaio 2023 – Digital Science ha acquisito metaphacts, creatori della piattaforma metaphactory: “una piattaforma che supporta i clienti nell'accelerare l'adozione dei knowledge graph e nel promuovere la democratizzazione della conoscenza.”
- 7 febbraio 2023 – Progress ha acquisito MarkLogic nel febbraio 2023. MarkLogic è un database NoSQL multimodale, con una particolare forza nella gestione dei dati RDF, il formato di dati principale per la tecnologia a grafo.
- 18 luglio 2024 – Samsung ha acquisito Oxford Semantic Technologies, creatori del database a grafo RDFox, per potenziare il ragionamento on-device e le capacità di conoscenza personale.
- 23 ottobre 2024 – Ontotext e Semantic Web Company si sono fuse per formare Graphwise, posizionandosi esplicitamente attorno al GraphRAG. “L'annuncio è significativo per l'industria dei grafi, in quanto eleva Graphwise come l'organizzazione AI di knowledge graph più completa e stabilisce un percorso chiaro verso la democratizzazione dell'evoluzione del Graph RAG come categoria.”
- 7 maggio 2025 – ServiceNow ha annunciato la sua acquisizione di data.world, integrando un catalogo dati basato su grafo e un livello semantico nella sua piattaforma di flusso di lavoro aziendale.
Questi sono solo gli eventi correlati ai knowledge graph e alla tecnologia semantica. Se estendiamo questo per includere la gestione dei metadati e/o i livelli semantici più ampiamente, allora ci sono più accordi, in particolare l'acquisizione da 8 miliardi di dollari del leader dei metadati Informatica da parte di Salesforce.
Queste mosse segnano un chiaro cambiamento: i knowledge graph non sono più solo strumenti di gestione dei metadati, sono diventati la spina dorsale semantica per l'AI e si sono avvicinati alle loro origini come sistemi esperti. Il GraphRAG ha reso nuovamente rilevanti i knowledge graph, assegnando loro un ruolo critico nel recupero, nel ragionamento e nella spiegabilità.
Nel mio lavoro quotidiano come product lead per una società di dati e AI semantica, lavoriamo per colmare il divario tra i dati e il loro significato effettivo per alcune delle più grandi aziende del mondo. Rendere i loro dati pronti per l'AI è un mix di renderli interoperabili, scopribili e utilizzabili in modo che possano alimentare gli LLM con informazioni contestualmente rilevanti per produrre risultati sicuri e accurati. Questo non è un compito da poco per grandi imprese altamente regolamentate e complesse che gestiscono quantità esponenziali di dati.
La caduta del RAG e l'ascesa del context engineering
Il RAG è morto? No, ma si è evoluto. La versione originale del RAG si basava su una singola ricerca vettoriale densa e prendeva i migliori risultati per alimentarli direttamente in un LLM. Il GraphRAG ha costruito su questo aggiungendo alcune analisi di grafi e filtri di entità e/o relazioni. Queste implementazioni si sono quasi immediatamente imbattute in vincoli di rilevanza, scalabilità e rumore. Questi vincoli hanno spinto il RAG in avanti verso nuove evoluzioni conosciute con molti nomi:
- agentic retrieval
- RAG 2.0
- e più recentemente, context engineering.
L'implementazione originale e ingenua è in gran parte morta, ma i suoi discendenti stanno prosperando e il termine stesso continua a essere oggetto di dibattito e ridefinizione man mano che il campo avanza. La necessità di un recupero più intelligente, dinamico e integrato con le capacità di ragionamento degli agenti AI è più forte che mai, guidando l'innovazione verso sistemi che non si limitano a recuperare, ma a comprendere e manipolare attivamente il contesto per raggiungere obiettivi complessi.