HomeModelli AIRAGMCP OrchestrazionePrompt Engineering Quando (Non) Usare AIChipsBotNews

Le 3 limitazioni del MCP che ne frenano l'esplosione

journaldunet.com 9 aprile 2026

Sebbene il Model Context Protocol (MCP) sia emerso come una soluzione estremamente promettente per collegare i modelli linguistici di grandi dimensioni (LLM) con le applicazioni del mondo reale, semplificando interazioni complesse e arricchendo l'esperienza utente, la sua piena "esplosione" nel panorama professionale è ancora frenata da una serie di ostacoli significativi. Mentre ha guadagnato popolarità attraverso le numerose dimostrazioni di solopreneur sui social media, il suo impiego in contesti aziendali rimane ancora confidenziale e limitato. Per un'adozione su larga scala, il MCP deve superare sfide cruciali che riguardano la sua scalabilità, la sua maturità nel settore e, non meno importante, le sue implicazioni in termini di sicurezza. Queste tre aree rappresentano le principali barriere che ne impediscono una diffusione più ampia e consolidata.

Vincoli di scalabilità

La scalabilità è riconosciuta come la limitazione più significativa del protocollo. Justin Spahr-Summers, un membro dello staff tecnico di Anthropic, ne ha riconosciuto apertamente la natura problematica: "MCP è attualmente un protocollo stateful, il che è limitante per i deployment serverless, creando un ostacolo alla sua adozione più ampia". In termini molto pratici, questo significa che ogni singola interazione tra un LLM e uno strumento, mediata dal MCP, si basa su una sessione persistente. Questa architettura impedisce di distribuire in modo flessibile le richieste tra diverse istanze di server. Di conseguenza, risulta impossibile implementare il MCP in un ambiente serverless, dove le risorse sono allocate dinamicamente e la statelessness è un requisito fondamentale. Per sua stessa concezione, ogni client deve rimanere connesso allo stesso server per l'intera durata della sua sessione. Questo mantenimento del contesto aumenta notevolmente le risorse richieste lato server, un problema che si accentua in un deployment su larga scala con numerosi utenti simultanei, impattando sui costi operativi e sull'efficienza complessiva del sistema.

Parallelamente, la dimensione delle finestre di contesto degli LLM è ancora finita. Utilizzando più strumenti contemporaneamente all'interno della stessa conversazione – ad esempio, Google Calendar, Gmail e un lettore di file (file reader) – è facile raggiungere rapidamente il limite massimo. Per citare un esempio concreto, la finestra di contesto di Claude 3.7 Sonnet è di 200.000 token. Sebbene la finestra non venga raggiunta nella sua totalità, finestre sovraccariche spesso portano a prestazioni degradate e risposte meno accurate o più lente da parte del modello. L'arrivo di finestre di contesto da 10 o 100 milioni di token, e persino la possibilità di finestre infinite, potrebbe risolvere in parte questo problema fondamentale. Tuttavia, saranno necessarie ancora numerose ottimizzazioni dell'inferenza per limitare i costi d'uso associati a contesti di così alto livello, poiché l'elaborazione di un numero così elevato di token richiede significative risorse computazionali.

Infine, a causa dei vincoli delle risorse hardware e delle numerose iterazioni necessarie tra il modello e i vari strumenti collegati, il MCP impone spesso una latenza significativamente più elevata rispetto a una semplice chiamata API ben ottimizzata. Questa maggiore latenza può influire negativamente sull'esperienza utente in applicazioni che richiedono risposte in tempo reale o quasi, compromettendo la fluidità dell'interazione.

Mancanza di maturità e adozione

Svelato meno di un anno fa da Anthropic, il Model Context Protocol è ancora poco adottato dall'industria. Nonostante esistano alcuni server MCP ufficiali, come quelli forniti da giganti della tecnologia quali Azure, AWS, Cloudflare, oltre a piattaforme specializzate come Elevenlabs e Stripe, la stragrande maggioranza degli sviluppi e delle implementazioni proviene ancora dalla comunità open source. Grandi editori e sviluppatori esitano a investire tempo e denaro significativi nel protocollo, almeno per il momento, preferendo un approccio attendista.

Lato client MCP, Claude Desktop rimane una delle principali porte d'accesso, offrendo agli utenti un modo relativamente semplice per interagire con il protocollo. OpenAI, ad esempio, supporta il protocollo solo tramite il suo Agents SDK, in attesa di un deployment nell'applicazione Desktop, il che ne limita l'accessibilità diretta per molti sviluppatori. Allo stesso modo, Hugging Face ha recentemente introdotto un client locale per supportare il suo InferenceClient in locale, ampliando le possibilità per gli sviluppatori. Tuttavia, queste implementazioni di client sono ancora troppo poche e specifiche, escludendo un gran numero di sviluppatori che lavorano su soluzioni di terze parti o che cercano una maggiore flessibilità.

Anche sul fronte dei modelli, le scelte sono limitate. Per un utilizzo efficace, il MCP richiede LLM robusti e dotati di funzionalità di "function calling". In altre parole, il modello deve essere stato specificamente addestrato (tramite 'instruction tuning') per rispondere al formato atteso dal protocollo e per evitare errori, garantendo così un'interazione fluida e affidabile con gli strumenti esterni. La startup Giskard ha evidenziato questa lacuna nel suo benchmark "Phare", pubblicando una classifica dei modelli che interagiscono meglio con gli strumenti. I risultati mostrano che questi modelli non sono affatto numerosi: solo quattro modelli su 17 testati hanno ottenuto un punteggio del 75% o superiore, e la maggioranza di questi, in modo abbastanza logico, sono modelli sviluppati da Anthropic, l'ideatore del protocollo. Questa carenza di sviluppo maturo sia lato server, che client, che modello impedisce ancora a molte aziende di intraprendere l'adozione del MCP, frenandone la crescita e la diffusione nel mercato.

Limitazioni di sicurezza

La sicurezza è l'altra limitazione maggiore del MCP, una preoccupazione che emerge con forza in un panorama digitale sempre più esposto a minacce. I server MCP alternativi e di terze parti pongono seri problemi di sicurezza, sia che siano implementati in locale (on-premise) che nel cloud. In un ambiente locale, anche se il codice del server è accessibile in open source, è possibile che una vulnerabilità sia stata inserita, volontariamente o involontariamente. Questa falla potrebbe esporre direttamente i dati inseriti dall'utente e quelli provenienti da altri strumenti collegati nella stessa sessione. L'esplosione di server amatoriali, spesso creati con meno attenzione ai rigori della sicurezza, accentua ulteriormente questo fenomeno, rendendo praticamente impossibile condurre revisioni del codice (code review) su tutti i server open source disponibili, moltiplicando i potenziali punti di attacco.

Un rapporto di HiddenLayer, azienda specializzata in cybersicurezza dell'IA, ha rivelato dati allarmanti: ben 16 server pubblicamente promossi sulla pagina ufficiale del protocollo contenevano una o più falle di sicurezza. Questi server avrebbero potuto, involontariamente, creare "prompts injection" nel modello, consentendo ad attori malevoli di manipolare il comportamento dell'LLM, e potenzialmente esfiltrare dati sensibili. Lato server remoto, il problema è ancora più evidente e critico: senza un accesso diretto al codice del server, è indispensabile riporre una fiducia del 100% nel suo editore. Questo approccio è diametralmente opposto ai principi delle procedure "zero trust", che raccomandano di non fidarsi di alcuna entità, interna o esterna, senza verifica, mettendo a rischio l'integrità dei dati e la riservatezza delle operazioni.

Infine, il MCP rimane ancora limitato nella sua capacità di essere auditato. Il protocollo, infatti, non offre nativamente strumenti per il monitoraggio dettagliato delle interazioni tra il modello e i vari server. Questo rende estremamente complesso risalire alla catena di produzione in caso di un incidente maggiore, come una violazione di dati, o anche di un semplice problema tecnico. La mancanza di trasparenza e di log strutturati per l'audit rende difficile identificare la causa radice dei problemi, ostacolando una rapida risoluzione e minando la fiducia degli utenti professionali che necessitano di piena controllabilità e responsabilità.

Nonostante queste sfide significative, il MCP rimane la pista più promettente e innovativa del momento per utilizzare in modo agevole le applicazioni del mondo reale con gli LLM. La sua capacità di orchestrare interazioni complesse tra intelligenza artificiale e strumenti esterni è innegabile e il suo potenziale di trasformazione è enorme. Ci si aspetta che la sua adozione cresca nei prossimi mesi, man mano che le criticità attuali verranno affrontate e risolte. Con il susseguirsi degli aggiornamenti, il protocollo potrebbe a breve supportare gli ambienti serverless, con diverse sperimentazioni già in corso per superare la sua natura stateful, e integrare nuovi strumenti di esplicabilità, che aumenteranno la trasparenza e la comprensione delle interazioni del modello. Sul fronte della sicurezza, il MCP ha recentemente ricevuto il supporto di OAuth 2.0, uno standard industriale per l'autorizzazione, che contribuirà a rafforzare l'autenticazione tra i server e i client, rendendo le connessioni più sicure e affidabili. Questi progressi continui sono fondamentali per sbloccare il pieno potenziale del MCP e permettere una sua diffusione capillare nel settore professionale.

Leggi l'articolo originale →
← Torna alle news