HomeModelli AIRAGMCP OrchestrazionePrompt Engineering Quando (Non) Usare AIChipsBotNews

MCP entra nella Linux Foundation: implicazioni per gli sviluppatori di strumenti e agenti AI

The GitHub Blog 6 aprile 2026

Lo sviluppo dell'intelligenza artificiale ha registrato un'esplosione senza precedenti nell'ultimo anno. Secondo il rapporto Octoverse di quest'anno, oltre 1,1 milioni di repository pubblici su GitHub importano ora un SDK LLM, con un aumento del 178% su base annua, e gli sviluppatori hanno creato quasi 700.000 nuovi repository AI. Strumenti agentici come vllm, ollama, continue, aider, ragflow e cline stanno rapidamente diventando parte integrante dello stack di sviluppo moderno. Mentre questo ecosistema si espande, è emersa una crescente necessità di connettere i modelli a strumenti e sistemi esterni in modo sicuro, coerente e multipiattaforma. Questo è esattamente il vuoto che il Model Context Protocol (MCP) ha rapidamente colmato.

Nato come un'idea open source all'interno di Anthropic, l'MCP è cresciuto rapidamente perché è stato aperto fin dall'inizio e progettato per essere esteso, adottato e modellato dalla comunità. Questa apertura è una ragione fondamentale per cui è diventato uno degli standard in più rapida crescita nel settore. Ha anche permesso a aziende come GitHub e Microsoft di unirsi e contribuire alla costruzione dello standard.

Ora, Anthropic sta donando l'MCP alla Agentic AI Foundation, che sarà gestita dalla Linux Foundation, e il protocollo sta entrando in una nuova fase di gestione condivisa. Questo fornirà agli sviluppatori una base solida per strumenti a lungo termine, agenti di produzione e sistemi aziendali. È un passo entusiasmante per coloro che sono stati coinvolti nella comunità MCP e, data la lunga storia di supporto alla Linux Foundation, questa mossa è accolta con grande favore.

L'evoluzione degli LLM e la sfida dell'integrazione

L'ultimo anno ha visto una crescita e un cambiamento incredibili per l'MCP. È utile ripercorrere come l'MCP sia arrivato a questo punto e cosa significhi la sua transizione alla Linux Foundation per la prossima ondata di sviluppo AI.

Dai sistemi isolati all'interconnessione

I modelli di linguaggio di grandi dimensioni (LLM) sono nati come sistemi isolati. Si inviavano loro prompt e si ricevevano risposte. Si utilizzavano pattern come la generazione aumentata dal recupero (RAG) per inserire dati e fornire più contesto all'LLM, ma ciò era limitato. L'introduzione del function calling da parte di OpenAI ha portato un enorme cambiamento, poiché per la prima volta si potevano chiamare funzioni esterne. Questo è stato ciò su cui è stato inizialmente costruito GitHub Copilot.

All'inizio del 2023, gli sviluppatori collegavano gli LLM a sistemi esterni attraverso un patchwork di API incompatibili: estensioni su misura, plugin per IDE e framework di agenti specifici per piattaforma, tra le altre cose. Ogni fornitore aveva la sua storia di integrazione e nessuna di esse funzionava esattamente allo stesso modo. Nick Cooper, ingegnere di OpenAI e membro del comitato direttivo dell'MCP, lo ha riassunto chiaramente: "Tutte le piattaforme avevano i loro tentativi, come il function calling, le API dei plugin, le estensioni, ma non hanno avuto molta trazione."

Il problema dell'architettura: la sfida n×m

Questo non era un problema di strumenti. Era un problema di architettura. Collegare un modello al web in tempo reale, a un database, a un sistema di ticketing, a un indice di ricerca o a una pipeline CI richiedeva codice su misura che spesso si rompeva con il successivo aggiornamento del modello. Gli sviluppatori dovevano scrivere un'integrazione profonda una piattaforma alla volta.

Come ha affermato David Soria Parra, ingegnere senior di Anthropic e uno degli architetti originali dell'MCP, il settore si stava scontrando frontalmente con un problema di integrazione n×m con troppi client, troppi sistemi e nessun protocollo condiviso per connetterli. In termini pratici, il problema di integrazione n×m descrive un mondo in cui ogni client del modello (n) deve integrarsi separatamente con ogni strumento, servizio o sistema su cui gli sviluppatori fanno affidamento (m). Ciò significherebbe cinque diversi client AI che parlano con dieci sistemi interni, risultando in cinquanta integrazioni su misura, ognuna con semantiche, flussi di autenticazione e modalità di errore diverse. L'MCP risolve questo problema definendo un unico protocollo vendor-neutral che sia i client che gli strumenti possono utilizzare. Con qualcosa come GitHub Copilot, dove ci si connette a tutti i modelli dei laboratori di frontiera e gli sviluppatori che usano Copilot devono anche connettersi a centinaia di sistemi come parte della loro piattaforma di sviluppo, questa non era solo una sfida di integrazione, ma una sfida di innovazione.

L'assenza di uno standard non era solo inefficiente; rallentava l'adozione nel mondo reale. Nelle industrie regolamentate come la finanza, la sanità e la sicurezza, gli sviluppatori avevano bisogno di modi sicuri, verificabili e multipiattaforma per consentire ai modelli di comunicare con i sistemi. Quello che ottenevano invece erano ecosistemi di plugin proprietari con confini di fiducia poco chiari.

La genesi e l'adozione rapida dell'MCP

Nascita di un protocollo standardizzato

In tutto il settore, inclusi Anthropic, GitHub, Microsoft e altri, gli ingegneri continuavano a imbattersi nello stesso ostacolo: collegare in modo affidabile i modelli al contesto e agli strumenti. All'interno di Anthropic, i team hanno notato che i loro prototipi interni convergevano su schemi simili per richiedere dati, invocare strumenti e gestire attività a lungo termine.

Soria Parra ha descritto semplicemente l'origine dell'MCP: era un modo per standardizzare i pattern che gli ingegneri di Anthropic stavano reinventando. L'MCP ha distillato questi pattern in un protocollo progettato attorno alla comunicazione, ovvero come modelli e sistemi parlano tra loro, richiedono contesto ed eseguono strumenti. Jerome Swanwick di Anthropic ha ricordato un primo hackathon interno in cui "ogni progetto era costruito sull'MCP... ed è diventato virale internamente."

Il successo della comunità

Quella prima trazione degli sviluppatori è diventata il seme. Una volta che Anthropic ha rilasciato pubblicamente l'MCP insieme a server di riferimento di alta qualità, il valore è stato immediatamente chiaro, e la comunità più ampia ha compreso immediatamente il valore. L'MCP offriva un modo condiviso per i modelli di comunicare con sistemi esterni, indipendentemente dal client, dal runtime o dal fornitore. Quando l'MCP è stato lanciato, l'adozione è stata immediata e diversa da qualsiasi standard visto prima.

Gli sviluppatori che creavano strumenti e agenti basati sull'AI avevano già sperimentato il problema che l'MCP risolveva. Come ha detto Den Delimarsky di Microsoft, ingegnere principale e membro del comitato direttivo del core MCP, focalizzato sulla sicurezza e OAuth: "Ha fatto click. Ho capito il problema che stavano cercando di risolvere; ho capito perché questo doveva esistere."

Contributi e funzionalità chiave

Nel giro di poche settimane, i contributori di Anthropic, Microsoft, GitHub, OpenAI e sviluppatori indipendenti hanno iniziato a espandere e rafforzare il protocollo. Nei nove mesi successivi, la comunità ha aggiunto:

  • API per attività a lungo termine
  • Supporto OAuth
  • Un registro MCP (MCP Registry)

API per attività a lungo termine

Le API per le attività a lungo termine sono una funzionalità critica. Consentono di tracciare in modo prevedibile build, operazioni di indicizzazione, distribuzioni e altri lavori che durano più minuti, senza hack di polling o canali di callback personalizzati. Questo è stato essenziale per i flussi di lavoro degli agenti AI a lungo termine che vediamo oggi.

L'integrazione di OAuth

Anche il lavoro di Delimarsky su OAuth è diventato un punto di svolta. Prima di esso, la maggior parte dei server MCP girava localmente, il che limitava l'uso in ambienti aziendali e causava attrito nell'installazione. OAuth ha abilitato i server MCP remoti, sbloccando integrazioni sicure e conformi su larga scala. Questo cambiamento è ciò che ha reso l'MCP utilizzabile per l'orchestrazione multi-macchina, i servizi aziendali condivisi e le infrastrutture non locali. Altrettanto importante, OAuth offre all'MCP un modello di sicurezza familiare e collaudato senza formati di token proprietari o flussi di fiducia ad hoc. Ciò rende significativamente più facile l'adozione all'interno degli stack di autenticazione aziendali esistenti.

Il registro MCP

Analogamente, il Registro MCP — sviluppato in modo aperto dalla comunità MCP con contributi e supporto di strumenti da Anthropic, GitHub e altri — ha fornito agli sviluppatori un livello di scopribilità e alle aziende un controllo di governance. Toby Padilla, che dirige gli sforzi per il Server e il Registro MCP presso GitHub, ha descritto questo come un modo per garantire che "gli sviluppatori possano trovare server di alta qualità e le aziende possano controllare ciò che i loro utenti adottano."

La cultura della collaborazione e il futuro dell'AI

Nessuna singola azienda ha guidato la traiettoria dell'MCP. Ciò che emerge da tutte le conversazioni con la comunità è il senso di gestione condivisa. Cooper lo ha articolato chiaramente: "Non mi incontro con Anthropic, mi incontro con David. E non mi incontro con Google, mi incontro con Che." Il lavoro non riguardava mai i confini aziendali. Riguardava il protocollo. Questa cultura collaborativa, che ricorda i primi giorni del web, è il meglio dell'open source. È anche il motivo per cui, a parere di molti, l'MCP si è diffuso così rapidamente.

I segnali dal rapporto Octoverse 2025

Il rapporto Octoverse 2025, la nostra analisi annuale approfondita sull'attività open source e pubblica su GitHub, evidenzia un'impennata senza precedenti nello sviluppo dell'AI:

  • L'81% degli sviluppatori utilizza o prevede di utilizzare strumenti AI.
  • Il 45% utilizza strumenti di codifica AI generativa.
  • Il 35% utilizza strumenti AI generativa al di fuori del codice.
  • Un aumento di 4,5 volte nei progetti AI nell'ultimo anno.
  • Oltre 200.000 nuovi progetti AI su GitHub.

Questi segnali raccontano una storia chiara: gli sviluppatori non stanno solo sperimentando gli LLM, li stanno rendendo operativi.

In questo contesto di rapida crescita e maturazione dell'AI, la decisione di Anthropic di donare l'MCP alla Agentic AI Foundation, sotto la guida della Linux Foundation, è un passo fondamentale. Assicura che un protocollo così cruciale per l'interconnessione dei modelli e dei sistemi mantenga la sua natura aperta, neutra e guidata dalla comunità. Questo garantisce stabilità e sviluppo a lungo termine, essenziali per supportare la prossima generazione di strumenti e agenti AI che gli sviluppatori stanno costruendo attivamente.

Leggi l'articolo originale →
← Torna alle news