Strumenti per agenti IA: il nuovo standard di Anthropic suscita interrogativi
Il 25 novembre 2024, Anthropic, il rivale di OpenAI, ha presentato il Model Context Protocol (MCP). Si tratta di uno “standard” aperto e universale, rilasciato sotto licenza MIT, progettato per connettere in modo “trasparente” i sistemi di intelligenza artificiale a diverse fonti di dati e strumenti di terze parti. L'iniziativa di Anthropic si inserisce in un mercato dell'IA in rapida evoluzione, dove la crescente diffusione dell'IA agentica e l'introduzione di tecnologie basate su agenti autonomi e semi-autonomi stanno ridefinendo il panorama. Tuttavia, l'ambizione di imporre un nuovo standard solleva interrogativi significativi tra gli esperti del settore.
L'architettura e i componenti del Model Context Protocol
Il MCP si basa su un'architettura client-server. Questa architettura crea un collegamento tra un'applicazione, denominata “Host”, che contiene un client incaricato di mantenere la connessione con i server. Questi server, a loro volta, custodiscono il "contesto": una base di dati di documenti vettorializzati, una serie di strumenti o anche dei prompt. L'Host permette di connettersi a un grande modello linguistico (LLM) remoto e di arricchire le sue risposte con dati specifici o di fargli eseguire un compito utilizzando gli elementi disponibili sui server. Nel caso specifico di Anthropic, l'applicazione Host è rappresentata da Claude Desktop, un client che consente di richiamare i suoi LLM.
I tre componenti principali del MCP sono:
- La specifica di connessione.
- Gli SDK (Software Development Kits) per TypeScript e Python.
- Il supporto dei server MCP da parte di Claude Desktop e il codice sorgente dei server di base.
Il livello di trasporto tra il client e i server può avvalersi dei protocolli Stdio e SSE (HTTP via Server Send Events). Le chiamate sono effettuate utilizzando il protocollo di scambio messaggi JSON RPC 2.0.
Applicazioni pratiche e obiettivi del MCP
Per illustrare le capacità del MCP, Anthropic ha fornito alcuni tutorial. Attualmente, questi tutorial sono disponibili per macOS. Uno di essi spiega come creare un assistente capace di cercare informazioni meteorologiche tramite l'API di OpenWeather. Un altro tutorial descrive in dettaglio come ospitare una base di dati su un server che espone "risorse" ai client collegati all'LLM. Queste risorse possono includere file di testo codificati in UTF-8, come documenti JSON, XML, log, o file binari come PDF, file audio, immagini e video.
Anthropic sottolinea che MCP è un software libero e mira ad aiutare i modelli di fondazione a produrre risposte migliori. Nella documentazione del progetto, l'azienda menziona la personalizzazione di un IDE, di un chatbot o di un flusso di lavoro, il tutto alimentato dall'IA generativa. In pratica, l'obiettivo è fornire agli sviluppatori un metodo unico per interfacciare un LLM con molteplici strumenti, eliminando la necessità di creare connessioni specifiche per ogni caso d'uso. Inoltre, un server può essere distribuito sulla stessa macchina dell'host. Questa funzionalità permette all'applicazione di IA generativa di manipolare le funzioni di un computer, oltre a connettersi a un sistema esposto sul Web. Ciò sembra essere la base della funzione "computer use", presentata il mese scorso da Anthropic, che promette di estendere le capacità degli agenti IA alla gestione diretta delle operazioni locali del dispositivo.
Le sfide dell'adozione di uno standard: la prospettiva degli analisti
L'introduzione del MCP da parte di Anthropic avviene in un contesto in cui l'IA agentica continua a guadagnare terreno nel mercato dell'IA, e sempre più sviluppatori stanno introducendo tecnologie di agenti IA autonomi e semi-autonomi. Tuttavia, la creazione di uno standard in un settore così dinamico è un compito arduo. Secondo Mark Beccue, analista presso l'Enterprise Strategy Group di TechTarget (proprietario di LeMagIT), l'introduzione di uno standard non è qualcosa che un singolo fornitore isolato può realizzare.
«Uno standard si definisce quando la comunità si accorda collettivamente su un metodo comune, in uno spirito collaborativo», spiega Mark Beccue. «Loro [gli ingegneri di Anthropic] hanno aperto il codice, ma sono gli unici a parlarne. Non sono sicuro che questo sia un approccio sostenibile». Beccue suggerisce che Anthropic potrebbe aver bisogno di avviare una conversazione con altri sviluppatori riguardo a questo standard. Idealmente, tale iniziativa dovrebbe provenire da un gruppo come l'AI Alliance, creata da IBM, Meta e altri fornitori di IA. Questo garantirebbe che la decisione sia presa da un consorzio di fornitori piuttosto che da uno solo, aumentando le probabilità di adozione e interoperabilità.
L'impegno di Anthropic e la comunità
Anthropic, in un post sul proprio blog, ha dichiarato il suo impegno a rendere MCP un progetto open source collaborativo, esprimendo il desiderio di ricevere feedback e incoraggiando le partecipazioni. L'azienda spera che l'entusiasmo della comunità possa aiutare a imporre il suo standard. Attualmente, nove contributori partecipano al progetto, gestito da tre ingegneri della startup largamente sostenuta da Amazon. Nonostante ciò, il repository MCP è seguito da 1.600 persone su GitHub, un segnale che, pur non essendo massivo, indica un certo interesse all'interno della comunità degli sviluppatori.
La questione spinosa della sicurezza dei dati
Il MCP sembra essere uno strumento utile per gli sviluppatori che cercano un processo semplificato per connettere i modelli di IA ai propri dati, secondo Sean Ren, professore associato di informatica all'Università della California del Sud e CEO di Sahara AI, uno sviluppatore di una piattaforma che combina blockchain e IA. «[Anthropic] vi permette di seguire il protocollo per connettere varie risorse agli LLM e strumenti che, insieme, alimentano un'applicazione», afferma Sean Ren. «È un framework». Tuttavia, Ren solleva una questione cruciale: Anthropic non ha ancora affrontato in modo chiaro il tema della protezione della privacy degli utenti e della sicurezza dei dati. Fa notare che, sebbene MCP sia open source, gli utenti sono per ora limitati ai modelli Claude di Anthropic. «In pratica, state dando loro accesso alle vostre informazioni, e non ci sono dettagli chiari su come le proteggeranno, o se vi accederanno per altri usi», avverte Sean Ren. Ciò riporta ai problemi già menzionati: la specifica può funzionare con altri LLM, ma per ora nessun altro fornitore si è fatto avanti.
«Le aziende devono essere molto caute nell'utilizzo del protocollo, perché lo si usa per connettere i propri dati ai modelli di Anthropic», ribadisce Ren. «In pratica, state dando loro accesso alle vostre informazioni, e non ci sono dettagli chiari su come le proteggeranno, o se vi accederanno per altri usi». Un portavoce di Anthropic ha risposto alle preoccupazioni, affermando: «A differenza di altri laboratori di ricerca sull'IA, Anthropic non allena i suoi modelli sui dati dei clienti per impostazione predefinita. Tutto ciò che gli utenti caricano non verrà utilizzato per addestrare i nostri LLM». Alex Albert, responsabile delle relazioni con gli sviluppatori di Anthropic, ha aggiunto su X: «La sicurezza è integrata nel protocollo – i server controllano le proprie risorse, non è necessario condividere le chiavi API con i fornitori di LLM, e i limiti del sistema sono chiari». Albert ha anche promesso futuri sviluppi: «Per ora, MCP è supportato solo localmente – i server devono funzionare sulla vostra macchina. Ma stiamo sviluppando il supporto per i server remoti con autenticazione di livello aziendale, in modo che i team possano condividere in modo sicuro le loro fonti di contesto all'interno della loro organizzazione».
Il panorama competitivo e le prospettive future
L'iniziativa di Anthropic è anche un modo per attrarre sviluppatori e ampliare la portata del proprio ecosistema. In questo scenario, OpenAI ha già svolto parte di questo lavoro con la sua API proprietaria Assistant, che offre funzioni simili. Il concorrente di Anthropic ha anche lanciato in beta la possibilità di interagire con le applicazioni installate su un computer tramite ChatGPT Desktop. Meta, dal canto suo, sta lavorando alla creazione di specifiche per sviluppare applicazioni agentiche attraverso la sua suite di strumenti Llama Stack, che potrà essere distribuita on-premise o nel cloud di Amazon. Durante Microsoft Ignite 2024, il gigante del cloud ha menzionato la catalogazione di oltre 70.000 strumenti e framework legati alla gestione dei dati e dell'IA. Resta da vedere se il MCP riuscirà a distinguersi in un mercato così affollato e competitivo, affermandosi come standard riconosciuto e adottato dalla più ampia comunità di sviluppatori e aziende.