WSO2 integra l'IA generativa nella gestione API (e viceversa)
Dalla sua conferenza WSO2Con 2025 tenutasi a Barcellona, l'editore di origine srilankese, specialista nella gestione dell'integrazione e delle API, ha illuminato la sua ambiziosa roadmap in materia di intelligenza artificiale. Pubblicato il 19 marzo 2025 e firmato da Gaétan Raoul per LeMagIT, il rapporto evidenzia come WSO2 stia infondendo l'IA in ogni strato della sua offerta.
La strategia di WSO2 si articola attorno a due aspetti principali. In primo luogo, l'infusione del machine learning e dell'IA generativa in ogni singola fase della catena di sviluppo delle API e dell'integrazione. Questo significa che l'IA non è solo un add-on, ma una componente fondamentale che supporta e migliora l'intero ciclo di vita. In secondo luogo, l'azienda si impegna a fornire un supporto completo per i pattern di sviluppo legati a questa nuova e potente tecnologia. Per raggiungere questo obiettivo, è essenziale che WSO2 sia in grado di supportare e integrare i Large Language Model (LLM) disponibili sul mercato, rendendoli accessibili e gestibili all'interno del proprio ecosistema.
Una gateway API dedicata all'IA generativa
Per affrontare le sfide della gestione e dell'ottimizzazione dell'uso dei LLM, WSO2 ha rivisto e potenziato la sua offerta. In particolare, Egress API Management è stato trasformato in Expanded AI Gateway, ora parte integrante di API Manager e della sua nuova declinazione SaaS, Bijira, una piattaforma di gestione API attualmente in fase beta. L'obiettivo primario di questa innovazione è automatizzare la scelta del LLM sottostante in base a criteri specifici, quali costo, disponibilità, tempo di risposta e performance desiderate. Questo approccio dinamico mira a ottimizzare l'efficienza e la resilienza delle applicazioni che si affidano a modelli di intelligenza artificiale.
Routing dinamico e sicurezza
Questo "routing dinamico" si basa su un sofisticato sistema di ripartizione del carico tra diversi servizi fornitori di LLM e su meccanismi di failover. Quest'ultimo permette una completa ridirezione del traffico verso un'altra API nel caso in cui il modello primario non sia accessibile, garantendo così continuità del servizio e alta disponibilità. La gateway non si limita alla gestione del traffico, ma offre anche funzionalità robuste per la sicurezza e il controllo. Gli utenti potranno impostare limiti di chiamate, bloccare richieste specifiche, crittografare i dati in transito e collegare i servizi di gestione delle identità e degli accessi (IAM). Questi includono le soluzioni di WSO2, come WSO2 Identity Manager (open source) e Asgardeo (SaaS), o servizi di terze parti come Okta.
Inoltre, la gateway è in grado di raccogliere dati di telemetria e metriche dettagliate sull'utilizzo dei LLM. Questi dati vengono poi presentati in pratici dashboard, che consentono di monitorare l'uso quotidiano e di identificare e comprendere rapidamente eventuali problemi di latenza o performance, permettendo agli sviluppatori di ottimizzare le proprie implementazioni.
Supporto ai LLM e flessibilità agnostica
WSO2 non è il primo a proporre una soluzione simile sul mercato, con concorrenti come Kong, Mulesoft e Solo.io che già offrono funzioni più o meno avanzate. Tuttavia, l'azienda si distingue per la sua "approccio aperto e flessibile", come sottolinea Rania Khalaf, Chief AI Officer di WSO2. "Proponiamo soluzioni agnostiche, il che significa che ci adattiamo al vostro modello e al vostro fornitore di predilezione", ha dichiarato. Attualmente, WSO2 supporta nativamente i LLM di OpenAI, quelli disponibili tramite Azure OpenAI e Mistral AI, tutti basati sul cloud di Microsoft.
La flessibilità è una caratteristica chiave. "Ad esempio, potete utilizzare un modello di OpenAI distribuito su Azure, integrare un modello di Hugging Face su Amazon Bedrock, o ancora ospitarlo in locale secondo le vostre esigenze specifiche", ha precisato Khalaf. Questo approccio garantisce che gli utenti possano scegliere le soluzioni più adatte ai loro requisiti specifici senza essere vincolati a un singolo fornitore o piattaforma. "Il nostro obiettivo è fornire modelli di base accompagnati da API e astrazioni che permettano un'esperienza il più coerente possibile", ha aggiunto la Chief AI Officer.
L'IA infusa in tutte le fasi del ciclo di vita delle API
Parallelamente alla gestione delle gateway, WSO2 sta costruendo un ecosistema di servizi di assistenza allo sviluppo e alla gestione delle API, sfruttando diversi LLM disponibili sul mercato e selezionandoli in base al livello di performance atteso per compiti specifici. "Nei nostri copiloti, utilizziamo diversi modelli, in particolare per la generazione di codice, dove alcuni sono più performanti di altri", ha osservato Rania Khalaf.
I copiloti di WSO2
L'impegno di WSO2 nell'integrazione dell'IA nel ciclo di vita delle API è evidente nella sua suite di "copiloti":
- Choreo Copilot: Lanciato nel 2024, questo copilota è integrato nella piattaforma di sviluppo interno SaaS di WSO2, Choreo.
- MI Copilot: Sviluppato successivamente, è associato a Micro Integrator (MI Copilot), una componente della piattaforma di integrazione WSO2 Integrator. Questo copilota è integrato direttamente in Visual Studio Code, fornendo assistenza contestuale agli sviluppatori.
- WSO2 Copilot: Presentato alla WSO2Con, questo assistente opera con API Manager e all'interno di Bijira, supportando la progettazione di API, la creazione di documentazione Swagger e gestendo protocolli come REST, GraphQL e AsyncAPI.
In Bijira, un assistente aggiuntivo facilita la navigazione in un marketplace di API, aiutando a identificare i componenti più pertinenti per casi d'uso specifici. Può imporre automaticamente regole di governance, estrarre informazioni da PDF e persino configurare il portale API degli sviluppatori, personalizzandolo con i colori e il branding aziendale. "Cerchiamo di utilizzare il linguaggio naturale per interpretare e generare funzioni quando è pertinente e codice deterministico quando è più adatto", ha ribadito la Chief AI Officer di WSO2, sottolineando l'approccio ibrido e pragmatico dell'azienda.
Ballerina Integrator: integrazione ibrida e funzioni naturali
WSO2 ha anche svelato la versione beta di Ballerina Integrator, basato su Ballerina, il linguaggio di programmazione open source sviluppato da WSO2 e dedicato all'integrazione. Ballerina Integrator adotta un approccio ibrido, che combina pro-code e low-code, per lo sviluppo di pipeline di integrazione. Supporta una vasta gamma di protocolli, tra cui GraphQL, gRPC, WebSocket e altri ancora.
L'integrazione con WSO2 Copilot è una caratteristica chiave di Ballerina Integrator. Il copilota traduce le intenzioni degli utenti nel linguaggio specifico di Ballerina, suggerisce le azioni più opportune nella creazione di un flusso di integrazione e può generare automaticamente mapping complessi, dopo aver analizzato gli schemi dei sistemi sorgente e destinazione. Ballerina Integrator introduce inoltre un innovativo sistema chiamato "funzioni naturali", che tratta i prompt e le chiamate ai LLM "come parti integranti dell'ambiente di esecuzione". Questo permette di lavorare con l'IA in modo più fluido e contestualizzato.
Per garantire la qualità e la sicurezza del codice, Ballerina Integrator include un sistema di verifica delle derive, che assicura il rispetto delle buone pratiche di programmazione, delle logiche di business, applicative e di sicurezza. Il servizio può proporre correzioni di codice e generare documentazione automatica (come la documentazione OpenAPI). Inoltre, Ballerina Integrator integra uno strumento per la generazione di test automatici, fondamentale per mantenere l'affidabilità delle integrazioni.
Elementi fondamentali per lo sviluppo di applicazioni di IA generativa
Oltre a migliorare l'integrazione esistente, Ballerina Integrator costituisce la base per lo sviluppo di future applicazioni di IA generativa. Ciò include la possibilità di integrare connettori verso LLM e database vettoriali attraverso un approccio pro-code o low-code. In un futuro prossimo, la piattaforma mira anche a facilitare lo sviluppo di agenti intelligenti, sfruttando le API per accedere a strumenti di mercato già esistenti.
Devant: l'iPaaS per l'ingestione RAG
Queste funzionalità avanzate sono integrate in Devant, una piattaforma iPaaS (Integration Platform as a Service) anch'essa in fase beta. Oltre all'integrazione con database vettoriali e servizi di IA, WSO2 intende supportare una serie di protocolli di comunicazione, tra cui TCP, UDP, FILE, Websub e Websubhub. Un esempio pratico dell'uso di Devant è la configurazione dell'ingestione RAG (Retrieval-Augmented Generation). Come indicato nella documentazione della piattaforma, "Questo processo implica l'implementazione di un database vettoriale, l'utilizzo di modelli di embedding, il trattamento dei file sorgente e la suddivisione dei dati", elementi cruciali per costruire sistemi di IA generativa che possano attingere a conoscenze specifiche e aggiornate.
L'IA agentica richiede metadati e nuovi protocolli
Per il futuro, WSO2 prevede di estendere il supporto ai flussi di lavoro agentici a tutti i suoi prodotti. "Gli agenti di IA consumeranno sempre più strumenti. Questi strumenti sono racchiusi in API esistenti e future", anticipa Pubudu Gunatilaka, direttore associato e architetto presso WSO2. Per rendere ciò possibile, l'azienda ritiene fondamentale arricchire la documentazione delle API, in particolare attraverso OpenAPI. "Dobbiamo disporre di più metadati affinché gli agenti di intelligenza artificiale possano comprendere cosa fanno realmente le API", ha affermato Gunatilaka, evidenziando la necessità di informazioni più dettagliate per abilitare l'interazione intelligente tra agenti e servizi.
Il Model Context Protocol (MCP)
Infine, e in linea con quanto fatto da aziende come Cisco, WSO2 sta esaminando l'adozione del Model Context Protocol (MCP), una libreria open source proposta da Anthropic. "MCP normalizza il modo in cui il contesto dell'applicazione viene trasmesso al LLM affinché possa utilizzarlo", ha sintetizzato il direttore associato, precisando che la libreria sarà supportata "nei mesi a venire". Rania Khalaf ha descritto MCP come una tecnologia promettente, ma ha anche sottolineato l'importanza di testarla a fondo per garantire la sicurezza delle implementazioni su larga scala.
In conclusione, sebbene l'IA sia una tecnologia di punta e molto promettente, per Sanjiva Weerawarana, fondatore e CEO di WSO2, essa rappresenta solo "la ciliegina sulla torta". "Benchè l'IA sia importante, risolviamo i problemi fondamentali dei clienti in materia di gestione delle identità, integrazione e API", ha affermato. Ciò ribadisce l'impegno di WSO2 nel fornire soluzioni robuste e fondamentali che continuano a costituire il nucleo delle operazioni digitali, con l'IA come potente catalizzatore per l'innovazione e l'efficienza.