WSO2: l'IA generativa rivoluziona la gestione delle API e viceversa
In occasione della sua conferenza WSO2Con 2025 tenutasi a Barcellona, WSO2, l'editore di origine srilankese specializzato nella gestione dell'integrazione e delle API, ha presentato la sua ambiziosa roadmap in materia di intelligenza artificiale. La strategia di WSO2 si articola su due pilastri fondamentali: l'integrazione pervasiva del machine learning e dell'IA generativa in ogni fase della catena di sviluppo delle API e dell'integrazione, e il supporto per i pattern di sviluppo emergenti legati a questa tecnologia. Un prerequisito essenziale per tale visione è la capacità di supportare pienamente i grandi modelli linguistici (LLM) disponibili sul mercato.
Una passerella API dedicata all'IA generativa
Per realizzare la sua visione di integrazione dell'IA generativa, WSO2 ha completamente riprogettato la sua offerta. L'ex Egress API Management è stato trasformato nell'Expanded AI Gateway, ora parte integrante di API Manager e della sua nuova incarnazione SaaS, Bijira, una piattaforma di gestione API attualmente in fase beta. L'obiettivo primario di questa innovazione è automatizzare la selezione dell'LLM sottostante. Questo processo decisionale avviene in base a parametri cruciali come il costo, la disponibilità, il tempo di risposta e le prestazioni desiderate, ottimizzando l'uso delle risorse di intelligenza artificiale.
Questo meccanismo di "routing dinamico" si basa su un sofisticato sistema di bilanciamento del carico tra i diversi servizi forniti dai provider di LLM. Include anche funzionalità di failover, che consentono una ridirezione automatica e completa del traffico verso un'altra API nel caso in cui il modello primario non sia accessibile, garantendo così resilienza e continuità del servizio. Gli utenti dell'Expanded AI Gateway avranno a disposizione una serie di controlli robusti, tra cui la possibilità di impostare limiti alle chiamate, bloccare richieste specifiche, cifrare i dati in transito e connettere servizi di gestione delle identità e degli accessi (IAM). Tra questi, i servizi dell'editore come WSO2 Identity Manager (open source) e Asgardeo (SaaS), o soluzioni di terze parti come Okta.
La passerella è inoltre in grado di raccogliere dati di telemetria e metriche dettagliate sull'utilizzo dei LLM. Questi dati alimentano delle dashboard che permettono di monitorare l'uso quotidiano e di identificare rapidamente eventuali problemi di latenza o performance, fornendo agli amministratori una visione chiara e azionabile. WSO2 non è un pioniere assoluto in questo campo; concorrenti come Kong, Mulesoft e Solo.io offrono già funzionalità simili, sebbene con diversi livelli di avanzamento.
Attualmente, WSO2 supporta nativamente i LLM di OpenAI, quelli disponibili tramite Azure OpenAI e Mistral AI, tutti basati sul cloud di Microsoft. Rania Khalaf, Chief AI officer di WSO2, sottolinea l'approccio aperto e flessibile dell'azienda: «La nostra metodologia è aperta e flessibile. Proponiamo soluzioni agnostiche, il che significa che ci adattiamo al vostro modello e al vostro fornitore di riferimento». Questa flessibilità si traduce nella possibilità per gli utenti di utilizzare, ad esempio, un modello di OpenAI distribuito su Azure, integrare un modello di Hugging Face su Amazon Bedrock, o persino ospitarlo in locale a seconda delle esigenze specifiche. Khalaf aggiunge: «Il nostro obiettivo è fornire modelli di base accompagnati da API e astrazioni che permettano un'esperienza il più coerente possibile».
L'IA infusa in ogni fase del ciclo di vita delle API
Parallelamente allo sviluppo dell'Expanded AI Gateway, WSO2 sta costruendo un ecosistema completo di servizi di assistenza per lo sviluppo e la gestione delle API. Questo sistema si avvale di diversi LLM disponibili sul mercato, scelti in base al livello di prestazioni atteso per compiti specifici. Rania Khalaf spiega: «Nei nostri copiloti utilizziamo diversi modelli, in particolare per la generazione di codice, dove alcuni sono più performanti di altri».
Copiloti WSO2 per lo sviluppo
Già nel 2024, WSO2 aveva lanciato Choreo Copilot, un assistente legato alla sua piattaforma di sviluppo SaaS interna, Choreo. Successivamente, ha sviluppato un altro assistente, MI Copilot, accoppiato a Micro Integrator, una componente della sua piattaforma di integrazione WSO2 Integrator. MI Copilot è integrato direttamente in Visual Studio Code, offrendo agli sviluppatori un supporto contestuale nel loro ambiente di lavoro preferito. Durante la WSO2Con 2025, l'editore ha presentato WSO2 Copilot, un assistente più generale che, in collaborazione con API Manager e all'interno di Bijira, aiuta nella progettazione di API e nella creazione di documentazione Swagger, supportando protocolli come REST, GraphQL e AsyncAPI.
All'interno di Bijira, un assistente dedicato permette anche di navigare in un marketplace di API per identificare i componenti più pertinenti in base al caso d'uso desiderato dagli utenti aziendali. Questo assistente è in grado di imporre automaticamente regole di governance, estrarre specifiche API da documenti PDF e configurare il portale API degli sviluppatori, personalizzandolo con i colori e il branding dell'azienda.
Ballerina Integrator e le "funzioni naturali"
WSO2 ha inoltre annunciato la beta di Ballerina Integrator, basato sul linguaggio di programmazione open source omonimo, sviluppato dalla stessa WSO2. Ballerina Integrator adotta un approccio ibrido, che combina la programmazione professionale (pro-code) con quella a basso codice (low-code), per lo sviluppo di pipeline di integrazione. Supporta un'ampia gamma di protocolli, tra cui GraphQL, gRPC e WebSocket, oltre ad altri. Una delle sue caratteristiche distintive è l'integrazione di WSO2 Copilot, che traduce le intenzioni degli utenti in questo linguaggio specifico. Il copilota è in grado di suggerire l'azione successiva più appropriata nella creazione di un flusso di integrazione e può generare automaticamente mappature, dopo aver analizzato gli schemi dei sistemi target e sorgente.
Ballerina Integrator include anche un sistema innovativo chiamato "funzioni naturali", che tratta i prompt e le chiamate ai LLM come "parti integranti dell'ambiente di esecuzione". Rania Khalaf chiarisce la logica dietro questa funzionalità: «Cerchiamo di utilizzare il linguaggio naturale per interpretare e generare funzioni quando è pertinente, e codice deterministico quando è più adatto». Il sistema include inoltre un meccanismo di verifica delle deviazioni, progettato per garantire il rispetto delle migliori pratiche di programmazione, delle logiche aziendali, applicative e di sicurezza. Questo servizio può suggerire correzioni al codice, generare documentazione (come la documentazione OpenAPI) e, in aggiunta, Ballerina Integrator integra uno strumento per la generazione automatica di test.
Elementi per lo sviluppo di applicazioni di IA generativa
Ballerina Integrator rappresenta anche la base fondamentale per lo sviluppo di applicazioni di IA generativa. Ad esempio, consente di integrare connettori verso i LLM e i database vettoriali, sia in un approccio pro-code che low-code. In un futuro prossimo, la piattaforma supporterà anche lo sviluppo di agenti di IA, sfruttando le API verso strumenti di mercato esistenti.
iPaaS Devant: integrazione e ingestione RAG
Queste funzionalità sono incorporate in iPaaS Devant, anch'essa in fase beta. Oltre all'integrazione con i database vettoriali e i servizi di IA, WSO2 intende supportare una vasta gamma di protocolli, tra cui TCP, UDP, FILE, Websub e Websubhub. iPaaS Devant può essere utilizzata, ad esempio, per configurare l'ingestione RAG (Retrieval Augmented Generation). La documentazione della piattaforma descrive il processo: «Questo processo implica la creazione di un database vettoriale, l'uso di modelli di embedding, l'elaborazione dei file sorgenti e la suddivisione dei dati», elementi cruciali per alimentare i LLM con informazioni contestuali e aggiornate.
L'IA agentica necessita di metadati (e di protocolli come MCP)
In un futuro prossimo, l'editore intende estendere il supporto ai flussi di lavoro agentici a tutti i suoi prodotti. Pubudu Gunatilaka, direttore associato e architetto di WSO2, anticipa un trend chiave: «Gli agenti di IA consumeranno sempre più strumenti. Questi strumenti sono racchiusi in API esistenti e future». Per facilitare questa interazione, WSO2 ritiene che sia fondamentale arricchire la documentazione delle API, in particolare attraverso lo standard OpenAPI. «Dobbiamo disporre di più metadati affinché gli agenti di intelligenza artificiale possano comprendere cosa fanno realmente le API», sottolinea Gunatilaka, evidenziando la necessità di API più "intelligenti" e descrittive.
Supporto per il Model Context Protocol (MCP)
Infine, come già osservato con Cisco, WSO2 si sta dedicando al supporto del Model Context Protocol (MCP), una libreria open source proposta da Anthropic. Pubudu Gunatilaka riassume il ruolo del protocollo: «MCP normalizza il modo in cui il contesto dell'applicazione viene trasmesso al LLM affinché possa utilizzarlo». Il direttore associato precisa che la libreria sarà supportata nei "mesi a venire". Rania Khalaf, pur riconoscendo il grande potenziale di questa tecnologia, sottolinea la necessità di ulteriori test per garantire la sicurezza delle implementazioni.
In conclusione, mentre l'IA si posiziona come una tecnologia estremamente promettente, Sanjiva Weerawarana, fondatore e CEO di WSO2, la considera la "ciliegina sulla torta". Egli afferma: «Sebbene l'IA sia importante, noi risolviamo i problemi fondamentali dei clienti in materia di gestione delle identità, integrazione, API e altro», ribadendo l'impegno di WSO2 a fornire soluzioni robuste per le esigenze infrastrutturali core, con l'IA a potenziarle.