Home Fondamenti Token Modelli AI Deep Learning Tecniche RAG RAG Avanzato MCP Orchestrazione Prompt Engineering Usare l'AI ChipsBot News

Matt Carey di Cloudflare: agenti AI e il ruolo cruciale delle API

StartupHub.ai 26 aprile 2026

Matt Carey, un ingegnere AI di Cloudflare, ha recentemente tenuto una presentazione di grande impatto a AI Engineer Europe, delineando il ruolo critico delle interfacce di programmazione delle applicazioni (API) nel potenziare gli agenti di intelligenza artificiale. Il discorso di Carey, intitolato "Ogni API è uno strumento per gli agenti", ha esplorato l'evoluzione del modo in cui gli agenti AI interagiscono con il mondo esterno, passando da strumenti strettamente accoppiati e "bundled" a un modello più distribuito e condiviso. La sua analisi offre una prospettiva preziosa sul futuro dell'integrazione tra AI e servizi digitali, evidenziando le sfide e le soluzioni innovative che Cloudflare sta sviluppando in questo campo, per rendere gli agenti AI sempre più autonomi e capaci di agire in contesti complessi.

La visione di Carey si concentra su come le API possano agire come "mani" per gli agenti AI, permettendo loro di eseguire azioni complesse e di accedere a una vasta gamma di informazioni e servizi esterni. Questo cambiamento di paradigma è fondamentale per superare le limitazioni intrinseche dei modelli linguistici e per consentire agli agenti di operare in modo più autonomo ed efficace in scenari del mondo reale. La presentazione di Carey è stata un punto culminante dell'evento, offrendo spunti pratici e una roadmap chiara per l'integrazione scalabile degli agenti AI, dimostrando come Cloudflare stia aprendo nuove frontiere nel campo dell'automazione intelligente.

Chi è Matt Carey?

Matt Carey è un ingegnere AI presso Cloudflare, dove si concentra sull'intersezione tra gli agenti di intelligenza artificiale e la vasta infrastruttura API dell'azienda. Il suo lavoro consiste nell'abilitare gli agenti AI a utilizzare efficacemente la vasta gamma di servizi offerti da Cloudflare, un compito che richiede una profonda comprensione sia delle capacità dell'intelligenza artificiale sia degli aspetti pratici dell'integrazione delle API. La sua esperienza lo rende un esperto ideale per esplorare come queste due aree apparentemente distinte si stanno fondendo per creare nuove possibilità nell'automazione e nell'elaborazione intelligente. Il suo ruolo è cruciale nello sviluppo di strategie che permettano agli agenti di navigare e sfruttare l'ecosistema digitale in rapida espansione di Cloudflare, che include servizi per la sicurezza, la performance e l'affidabilità di siti web e applicazioni.

Dare "mani" agli agenti: la chiamata a strumenti/funzioni

Carey ha iniziato illustrando il concetto fondamentale della chiamata a strumenti o funzioni per gli agenti AI, un meccanismo che consente loro di interagire con il mondo esterno. Ha utilizzato un esempio semplice di un agente che ha bisogno di conoscere il tempo a Londra. Questo richiede all'agente di effettuare una chiamata a uno strumento tramite un'API meteorologica, ricevere il risultato e quindi elaborare tali informazioni per fornire una risposta significativa. Questo processo, ha spiegato, è stato una pietra miliare nello sviluppo degli agenti AI per qualche tempo. È il modo in cui gli agenti possono estendere le proprie capacità oltre la semplice generazione di testo, permettendo loro di accedere a dati in tempo reale, eseguire azioni specifiche e interfacciarsi con sistemi esterni, trasformandoli da semplici elaboratori di informazioni a veri e propri esecutori di compiti nel mondo digitale.

Dalle API "bundled" alle API condivise

Storicamente, gli agenti AI spesso avevano i loro strumenti "bundled" (raggruppati) direttamente all'interno dei propri sistemi. Ciò significava che per ogni compito specifico, come l'invio di un'e-mail o il controllo di un calendario, era necessaria un'integrazione dedicata e spesso proprietaria. Carey ha evidenziato le limitazioni di questo approccio, in particolare man mano che il numero di strumenti e servizi disponibili cresceva esponenzialmente. Un modello "bundled" portava a una duplicazione del lavoro e limitava la flessibilità e l'adattabilità degli agenti a nuovi scenari o strumenti. Ogni sviluppatore doveva re-implementare le stesse integrazioni per ogni nuova applicazione o agente, rallentando l'innovazione e aumentando la complessità e i costi di manutenzione. La soluzione più pratica e scalabile, ha sostenuto Carey, è quella di passare a un modello API condiviso, in cui le API sono accessibili agli agenti, consentendo loro di scoprirle e utilizzarle secondo necessità in un ecosistema interoperabile.

Prima dell'avvento del Multi-Modal Communication Protocol (MCP) di Cloudflare, l'approccio era in gran parte "bundled". "Ogni app implementava semplicemente le stesse integrazioni", ha osservato Carey, sottolineando la ridondanza e l'inefficienza di quel sistema in cui la mancanza di uno standard comune frenava lo sviluppo. L'introduzione dell'MCP, tuttavia, segna un passo significativo verso API condivise e scopribili. Questo protocollo facilita l'interazione tra agenti e servizi in modo standardizzato, aprendo la strada a un ecosistema in cui gli agenti possono "imparare" a utilizzare nuovi strumenti senza la necessità di integrazioni personalizzate per ogni singolo servizio. L'MCP è progettato per rompere le barriere tra diverse applicazioni e piattaforme, promuovendo una maggiore interoperabilità e efficienza nello sviluppo degli agenti AI su larga scala.

La sfida della scalabilità e delle finestre di contesto

Una sfida significativa nel fornire agli agenti l'accesso a un vasto numero di API è la limitazione delle finestre di contesto nei modelli linguistici. Carey ha sottolineato che la superficie API di Cloudflare è enorme, con potenzialmente milioni di endpoint che coprono una miriade di funzionalità, dalla gestione della rete alla sicurezza, passando per l'edge computing. Cercare di caricare tutto questo nella finestra di contesto di un agente è semplicemente impossibile. Ha elaborato questo concetto affermando: "Abbiamo riempito la finestra di contesto. 2,3 milioni di token nella specifica Open API di Cloudflare". Questa quantità massiccia di informazioni sovraccaricherebbe anche i modelli più avanzati, rendendo impraticabile l'approccio di fornire all'agente tutte le API contemporaneamente. La finestra di contesto limitata significa che un modello può elaborare solo una quantità finita di informazioni in un dato momento, e superare questo limite degrada le prestazioni o rende l'elaborazione impossibile, limitando di fatto l'autonomia e l'efficacia dell'agente.

Questa limitazione intrinseca dei modelli attuali rende necessario un approccio più intelligente all'accesso alle API, portando al concetto di "scoperta progressiva". Invece di sommergere l'agente con tutti gli strumenti disponibili contemporaneamente, il sistema dovrebbe fornire gli strumenti progressivamente, in base alle esigenze immediate dell'agente e al contesto specifico del compito che sta eseguendo. Questo approccio garantisce che l'agente riceva solo le informazioni pertinenti per il compito corrente, ottimizzando l'uso della finestra di contesto e migliorando l'efficienza complessiva. La scoperta progressiva è la chiave per sbloccare la capacità degli agenti di interagire con un ecosistema API su scala vasta senza essere sopraffatti dalla complessità, permettendo una gestione dinamica e mirata delle risorse informative.

Scoperta progressiva: la soluzione

Carey ha delineato tre metodi chiave per realizzare la scoperta progressiva, ognuno progettato per facilitare un'interazione efficiente e mirata degli agenti con le API. Questi metodi rappresentano strategie diverse per permettere agli agenti di individuare e utilizzare gli strumenti giusti al momento giusto, senza sovraccaricare la loro capacità di elaborazione, sfruttando al meglio le loro capacità di ragionamento e comprensione del linguaggio:

  • Interfaccia a riga di comando (CLI): Gli agenti possono essere esposti a un'interfaccia simile a una CLI che consente loro di scoprire e selezionare dinamicamente gli strumenti. Questa modalità offre un controllo granulare e permette agli agenti di "navigare" tra le API disponibili come farebbe un utente esperto con una shell, digitando comandi per esplorare le funzionalità, ottenere aiuto e interagire con i servizi.
  • Ricerca di strumenti: Un approccio basato sulla ricerca in cui gli agenti possono interrogare il sistema per strumenti specifici basati su descrizioni in linguaggio naturale. Questo metodo è più intuitivo e sfrutta le capacità dei modelli linguistici di comprendere il significato e l'intento per trovare l'API più adatta a un determinato compito, agendo quasi come un motore di ricerca interno per le funzionalità offerte dal vasto catalogo API.
  • Modalità codice: La capacità del modello AI stesso di generare il codice necessario per interagire con le API, basandosi sulle loro specifiche. Questa è una delle soluzioni più avanzate, poiché trasforma l'agente da un semplice utilizzatore a un "programmatore" di sé stesso, capace di scrivere il proprio adattatore per una nuova API, dimostrando un alto livello di autonomia e adattabilità senza la necessità di pre-integrazioni manuali.

Ha dimostrato come questi metodi consentano agli agenti di accedere solo agli strumenti pertinenti per un dato compito, gestendo così efficacemente la finestra di contesto. Questo approccio modulare e dinamico è fondamentale per la scalabilità e l'efficienza degli agenti AI in ambienti complessi e ricchi di API come quello di Cloudflare, dove la quantità di informazioni disponibili sarebbe altrimenti insormontabile per un singolo agente.

L'MCP di Cloudflare in azione

Carey ha presentato la Multi-Cloud Platform (MCP) di Cloudflare come un'implementazione pratica di questi principi. Ha dimostrato come gli agenti possano interagire con il vasto ecosistema API di Cloudflare attraverso un'interfaccia user-friendly che maschera la complessità sottostante. Consentendo agli agenti di elencare i workers (funzioni serverless distribuite globalmente), interrogare servizi specifici e persino generare codice rispetto alle specifiche API, Cloudflare sta abilitando un nuovo e potente paradigma per l'interazione degli agenti AI. L'MCP non è solo una piattaforma, ma un vero e proprio abilitatore che democratizza l'accesso e l'utilizzo delle complesse infrastrutture di Cloudflare per gli agenti intelligenti. Questo offre agli sviluppatori una flessibilità senza precedenti per costruire agenti che possono eseguire operazioni sofisticate, dal monitoraggio della rete alla gestione dei contenuti e oltre, con una notevole facilità d'uso.

Un aspetto cruciale evidenziato da Carey riguarda le implicazioni di sicurezza legate all'esecuzione di codice non affidabile da parte degli agenti, una preoccupazione fondamentale quando si permette a sistemi autonomi di interagire con infrastrutture critiche. Ha sottolineato la necessità di robusti meccanismi di isolamento per garantire che, anche se viene eseguito codice potenzialmente dannoso o non intenzionalmente difettoso, rimanga contenuto e non comprometta l'infrastruttura più ampia. L'approccio di Cloudflare prevede la fornitura di sandbox programmabili e altamente isolate in cui il codice dell'agente può essere eseguito in sicurezza, assicurando che qualsiasi attività indesiderata sia circoscritta e non possa propagarsi, mantenendo l'integrità e la stabilità del sistema generale. Questo dimostra l'impegno di Cloudflare non solo per l'innovazione, ma anche per la sicurezza e l'affidabilità delle sue soluzioni basate su AI in un contesto di crescente minaccia cibernetica.

Il futuro: server più semplici e agenti più intelligenti

Carey ha concluso proiettando la traiettoria futura dello sviluppo degli agenti AI e dell'interazione con le API. Prevede che i server diventeranno più semplici, con i server MCP che agiranno come strati sottili e interoperabili che espongono capacità gestite dal protocollo stesso, riducendo la necessità di configurazioni complesse a livello di infrastruttura. Questa visione di server "snelli" riduce la complessità dell'infrastruttura backend, permettendo agli sviluppatori di concentrarsi maggiormente sulla logica degli agenti e meno sulla gestione dei server e delle loro dipendenze. Inoltre, egli prevede una tendenza significativa verso framework più piccoli e leggeri e una maggiore dipendenza da TypeScript per la sua sicurezza dei tipi e l'esperienza di sviluppo superiore, che facilitano la creazione di codice robusto e manutenibile per gli agenti.

In definitiva, l'obiettivo è rendere più facile per gli sviluppatori costruire e distribuire agenti AI sofisticati che possano interagire senza soluzione di continuità con una vasta gamma di servizi, sbloccando nuove possibilità per l'automazione e la risoluzione dei problemi. Questa evoluzione promette un futuro in cui gli agenti AI non saranno solo strumenti passivi, ma entità attive capaci di orchestrarsi autonomamente attraverso un ecosistema digitale interconnesso, trasformando il modo in cui interagiamo con la tecnologia e risolviamo sfide complesse a livello globale, portando a innovazioni in settori che vanno dalla finanza alla sanità, dall'e-commerce alla logistica.

Leggi l'articolo originale →
← Torna alle news