Home Fondamenti Token Modelli AI Deep Learning Tecniche RAG RAG Avanzato MCP Orchestrazione Prompt Engineering Usare l'AI ChipsBot News

La Centrale accelera i suoi deploy multi-agente IA

Le Monde Informatique 15 aprile 2026

La Centrale, un nome di spicco nel panorama automobilistico francese da oltre mezzo secolo, sta ridefinendo l'esperienza utente e le proprie operazioni interne attraverso un'adozione accelerata e sofisticata dell'intelligenza artificiale multi-agente. Specializzata da 55 anni nella vendita online di veicoli (usati o nuovi con promozioni), nella consulenza e nell'informazione automobilistica (attraverso il sito Caradisiac), l'azienda si è immersa profondamente nel mondo dell'IA, seguendo le orme di altri marchi del settore come Spoticar.

Il percorso di La Centrale con l'IA è iniziato nel giugno 2024, con il lancio di un assistente virtuale. Fabien Roussel, direttore dell'architettura IT di La Centrale, ha illustrato questa fase iniziale durante un feedback all'AWS Summit Paris 2026 del 1° aprile scorso. "L'idea era semplice: trasformare l'esperienza di ricerca degli utenti in un'esperienza più naturale, consentendo loro di interagire vocalmente con la nostra piattaforma affinché l'IA li guidasse verso i veicoli giusti", ha spiegato Roussel. I risultati sono stati immediatamente promettenti: "Il 95% delle risposte dell'IA sono appropriate alla ricerca degli utenti e il tasso di conversione dei lead è raddoppiato rispetto alla ricerca con filtri classici", ha aggiunto.

L'espansione dei casi d'uso dell'IA e i principi della piattaforma GenAI

Oggi, il gruppo La Centrale vanta una ventina di casi d'uso IA operativi in produzione. Tra questi spiccano la funzione di ricerca testuale libera (free text search), che consente la ricerca di veicoli in linguaggio naturale direttamente integrata nel percorso di ricerca dell'utente, e il "mot du vendeur", per la generazione automatica di descrizioni di annunci basate sui dati dei veicoli, rendendoli più accattivanti. Un altro esempio rilevante è "pilot price IA", integrato in una piattaforma SaaS per i clienti B2B, finalizzato a determinare il prezzo ottimale di un veicolo, accelerandone la vendita al giusto valore di mercato.

Dal 2026, l'azienda ha intensificato il ritmo, con 2 o 3 nuovi casi d'uso IA implementati in produzione ogni mese. Per raggiungere questo obiettivo, La Centrale ha sviluppato una piattaforma di intelligenza artificiale generativa (GenAI) basata su cinque principi fondamentali:

  • Gestione del contesto: Utilizzando il database DynamoDB di AWS.
  • Orchestrazione ed esecuzione dei cicli di strumenti: Implementata con soluzioni serverless AWS Lambda.
  • Osservabilità degli agenti in produzione: Per monitorare e garantire il funzionamento ottimale.
  • Registro delle configurazioni: Gestito in un bucket S3 centralizzato, che permette di modificare le configurazioni senza dover ridistribuire codice. "Ogni volta che modifichiamo una configurazione di agente, ne pubblichiamo una nuova in questo bucket, che è immutabile", ha precisato Fabien Roussel.
  • A/B testing: Essenziale per verificare che ogni nuova configurazione sia effettivamente migliore della precedente.

Un'evoluzione verso l'architettura multi-agente

Nonostante il successo delle prime implementazioni, La Centrale ha identificato alcune limitazioni nella sua piattaforma iniziale, in particolare una mancanza di adattamento per l'approccio multi-agente, un significativo sforzo di implementazione personalizzato per l'integrazione diretta con strumenti come OpenAPI (sebbene si basasse già su Bedrock), e una diminuzione della pertinenza man mano che i diversi framework IA sul mercato diventavano più maturi. Per superare queste sfide, la società ha implementato la versione 2 della sua piattaforma, affidandosi a AgentCore e Strands Agents di AWS.

Per quanto riguarda AgentCore, sono stati implementati tre moduli principali:

  • Runtime: Semplifica il deployment degli agenti, sostituendo le API Lambda Converse.
  • Memory: Gestisce il contesto, prendendo il posto di DynamoDB.
  • Gateway: Connette gli strumenti agli agenti utilizzando il protocollo MCP (Model Context Protocol). "Questo sostituisce l'orchestrazione un po' personalizzata che avevamo realizzato con Lambda nella v1", ha spiegato Fabien Roussel.

Strands Agents, un framework applicativo il cui SDK è disponibile in Python o Node.js, è impiegato per semplificare il codice e lo sviluppo degli agenti. Offre la capacità di sviluppare architetture multi-agente senza dover scrivere codice specifico per la collaborazione e l'orchestratione tra agenti, e integra nativamente OpenAI o altri fornitori di IA direttamente tramite le API Bedrock Converse.

Combinando questi strumenti, La Centrale si è dotata dei mezzi per spingersi oltre nella "platformizzazione" e nell'accelerazione dei suoi casi d'uso IA. "Per il nostro assistente, siamo passati da un'architettura mono-agente a una multi-agente che si basa su un agente principale, un orchestratore, che qualifica la richiesta degli utenti e risponde se può, oppure delega il compito a un agente specializzato nella consulenza auto (l'agente Caraguide) o nella ricerca di veicoli (l'agente free text search)", ha illustrato Fabien Roussel. Ha aggiunto: "Strands Agents ci permette di implementare facilmente il multi-agente incapsulando agenti specializzati come strumenti."

L'agente Caraguide: un esempio di intelligenza specializzata

Un esempio concreto è l'agente Caraguide, che possiede capacità proprie, incluso il RAG (Retrieval Augmented Generation). Questo gli consente di recuperare informazioni aggiuntive da una base di conoscenze implementata su Bedrock e alimentata dai dati del sito Caradisiac. Il risultato è che l'agente fornisce una risposta arricchita dall'expertise di Caradisiac, non solo dalla conoscenza generale del LLM (Large Language Model). In questo ambiente, ogni agente è distribuito nel proprio runtime AgentCore, garantendo isolamento e indipendenza, senza tuttavia impedirne la comunicazione reciproca.

Contenuti editoriali e SEO: nuovi orizzonti per l'IA

Un altro caso d'uso significativo discusso durante l'intervento riguarda la trasformazione dei contenuti editoriali, con un workflow che coinvolge oltre 25 agenti che collaborano per integrare l'azienda il prima possibile nel percorso di ricerca a monte degli utenti. "La Centrale è molto ben posizionata nella fase di ricerca transazionale, quando l'utente sa già quale veicolo cerca, ma lo è molto meno quando vuole confrontare modelli, leggere recensioni, test", ha fatto notare il responsabile.

Per rispondere a questa esigenza, il gruppo ha lanciato i "test auto" con tre obiettivi specifici:

  • Generare contenuti esclusivi e SEO-friendly per La Centrale a partire dai dati del sito Caradisiac.
  • Fornire expertise e supporto decisionale agli utenti all'inizio del loro percorso.
  • Migliorare il posizionamento e acquisire più traffico.

Il workflow di agenti di La Centrale per la trasformazione editoriale si articola attorno a 25 agenti che lavorano in sinergia (e non in modo separato), suddivisi in cinque macro-categorie:

  • Estrazione dei contenuti.
  • Riscrittura dei testi.
  • Creazione di nuovi materiali.
  • Revisione e controllo qualità.
  • Pubblicazione dei contenuti.

Due indicatori di performance cruciali sono stati evidenziati: per un workflow agentico completo su un articolo, il trattamento richiede in media 10 minuti, con un costo LLM di 1 dollaro HT, mentre i costi di calcolo sono considerati trascurabili. Sia per i casi d'uso multi-agente conversazionali che per quelli di tipo workflow, La Centrale ha implementato un gateway MCP per il deployment di server MCP gestiti. Infine, dal punto di vista della sicurezza, è da notare che l'azienda si affida ad AgentCore Identity per gestire diversi tipi di autenticazione, garantendo la protezione e l'integrità dei dati e delle operazioni.

L'approccio innovativo di La Centrale, spinto dalla visione di Fabien Roussel e dal supporto delle soluzioni AWS, non solo ottimizza le operazioni interne ma ridefinisce anche l'interazione con gli utenti e la strategia di contenuti, consolidando la sua posizione di leader nel mercato automobilistico digitale.

Leggi l'articolo originale →
← Torna alle news