Google adotta lo standard MCP di Anthropic: i suoi servizi diventano strumenti per agenti IA
L'intelligenza artificiale compie un passo fondamentale verso l'autonomia vera e propria. Google Cloud ha recentemente ufficializzato il supporto per il Model Context Protocol (MCP), un protocollo standardizzato sviluppato da Anthropic, estendendolo a una vasta gamma dei suoi servizi. Questi includono soluzioni ampiamente utilizzate come Google Maps, BigQuery e Google Kubernetes Engine (GKE).
Spesso paragonato a un "USB-C per l'IA" per la sua capacità di standardizzare le connessioni, il MCP permette ora agli sviluppatori di integrare facilmente i loro agenti intelligenti con le infrastrutture di Google. L'innovazione principale risiede nel fatto che non sarà più necessario gestire server locali complessi o interfacce "fatte in casa". In sintesi, questa è un'avanzata che promette di sbloccare e valorizzare appieno il potenziale degli agenti autonomi nell'ambito aziendale, come sottolineato da Johan Sellitto in questo articolo del 17 dicembre 2025.
Cosa c'è da sapere sull'integrazione del MCP
- Standardizzazione massiva: Google integra il protocollo MCP direttamente nelle sue API esistenti, offrendo un accesso unificato e completamente gestito ("fully-managed") ai suoi servizi. Questo elimina la necessità per gli sviluppatori di configurare e mantenere server locali spesso fragili e costosi.
- Connessione a dati reali: Gli agenti IA possono ora interagire in modo nativo con servizi cruciali come Google Maps per dati geospaziali aggiornati, BigQuery per analisi di dati aziendali approfondite e l'infrastruttura cloud di Google (Google Compute Engine, GKE) per eseguire attività complesse direttamente sul cloud.
- Sicurezza e governance rafforzate: L'integrazione non si limita alla connettività. Include anche robuste misure di sicurezza e controllo tramite Google Cloud IAM (Identity and Access Management) e Model Armor, progettati per prevenire minacce emergenti come le iniezioni di prompt indirette.
- Estensione alle aziende: Attraverso Apigee, le imprese potranno esporre le proprie API interne, trasformandole in "strumenti" facilmente scopribili e utilizzabili dagli agenti IA, creando così un ecosistema più ricco e personalizzabile.
La fine delle integrazioni "artigianali"
Fino a poco tempo fa, connettere un agente IA, sia esso basato su Gemini o Claude, a dati esterni o a strumenti specifici richiedeva un notevole sforzo ingegneristico. Gli sviluppatori dovevano costruire, ospitare e mantenere i propri server intermediari, che fungevano da ponte tra il modello di intelligenza artificiale e l'applicazione o la fonte di dati esterna. Questo approccio era spesso costoso, dispendioso in termini di tempo e tecnicamente fragile, rappresentando un ostacolo significativo all'adozione su larga scala degli agenti autonomi.
Con l'annuncio del 11 dicembre 2025, Google cambia radicalmente il panorama. Invece di chiedere agli sviluppatori di creare questi ponti complessi, Google ha aggiornato la sua infrastruttura API per "parlare" nativamente il linguaggio MCP. Ciò significa che un programmatore può ora indirizzare il suo agente IA – sia che utilizzi Gemini 3 o un altro client compatibile con MCP – direttamente verso un endpoint Google affidabile e sicuro. Questa semplificazione è cruciale, poiché rimuove un'importante barriera tecnica e operativa.
Come sottolineato da Michael Bachman e Anna Berenberg di Google Cloud, affinché un'IA possa essere considerata un "agente" a tutti gli effetti, non deve essere solo intelligente; deve anche essere in grado di manipolare strumenti e dati in modo affidabile e coerente. Il MCP fornisce questa capacità fondamentale, trasformando i servizi di Google in estensioni dirette per le capacità cognitive e operative degli agenti IA.
I primi servizi compatibili: dalla mappa al cloud
Google sta implementando questo supporto per il MCP a ondate, ma i primi servizi integrati coprono già esigenze critiche e offrono un assaggio del potenziale futuro:
1. L'ancoraggio nel mondo reale con Google Maps
Grazie a Maps Grounding Lite, gli agenti IA possono accedere a dati geospaziali freschi e precisi. Questo elimina uno dei problemi più comuni degli LLM: le "allucinazioni" relative a tempi di viaggio, percorsi inesistenti o l'esistenza di luoghi ormai chiusi. Un agente può ora rispondere con accuratezza a domande logistiche complesse, come: "Qual è la distanza tra il parco più vicino e questa località in affitto?" o pianificare itinerari tenendo conto di fattori dinamici come le condizioni meteorologiche, il tutto attraverso una connessione standardizzata e affidabile. Questa capacità conferisce agli agenti un senso di "realtà" e una maggiore utilità pratica.
2. L'analisi di dati con BigQuery
Questa integrazione rappresenta un vantaggio enorme per le aziende. Il server MCP per BigQuery consente agli agenti di comprendere la struttura delle basi di dati aziendali (gli schemi) e di eseguire query SQL direttamente. Il vantaggio è duplice: in primo luogo, si evita di copiare dati sensibili e potenzialmente riservati nella finestra contestuale del modello, il che è sia rischioso in termini di sicurezza che costoso. In secondo luogo, permette all'agente di utilizzare funzioni avanzate e complesse di BigQuery, come le previsioni (forecasting), per estrarre insight più profondi e predittivi senza la necessità di intermediari umani o codice personalizzato.
3. Il pilotaggio di infrastruttura (GCE e GKE)
Con questa integrazione, l'IA si trasforma in un vero e proprio amministratore di sistema autonomo. Su Google Compute Engine (GCE), gli agenti possono ora effettuare il provisioning o ridimensionare macchine virtuali in base alla domanda in tempo reale. Questo significa che le risorse possono essere allocate e deallocate dinamicamente, ottimizzando i costi e le prestazioni senza intervento manuale. Su Google Kubernetes Engine (GKE), l'interfaccia MCP struttura le interazioni con i cluster. L'agente non si limita più a leggere testo grezzo in output dalla console; può interagire in modo pulito e strutturato con l'API Kubernetes per diagnosticare guasti, gestire carichi di lavoro o ottimizzare i costi, sia sotto supervisione umana che, in futuro, in autonomia completa.
Apigee: il ponte verso i vostri dati aziendali
L'annuncio di Google va oltre la semplice integrazione dei suoi servizi proprietari. Integrando il MCP con Apigee, la piattaforma di gestione delle API di Google, le aziende hanno la possibilità di trasformare la propria infrastruttura tecnologica e il proprio stack tecnico in strumenti utilizzabili dall'IA. Le vostre API interne – quelle che gestiscono le scorte, le relazioni con i clienti o i processi aziendali specifici e proprietari – possono essere esposte e governate come strumenti MCP. Diventano così "scopribili" dagli agenti IA, consentendo la creazione di flussi di lavoro ibridi che combinano la potenza di calcolo e l'infrastruttura di Google con la logica e i dati specifici del vostro business. Questa capacità apre la strada a soluzioni IA altamente personalizzate e profondamente integrate nei processi aziendali esistenti.
Sicurezza e futuro dell'ecosistema
Uno dei principali ostacoli all'adozione diffusa degli agenti autonomi è sempre stata la questione della sicurezza. Google risponde a questa preoccupazione avvolgendo i server MCP nelle sue robuste soluzioni di sicurezza abituali. L'accesso è gestito da Cloud IAM (Identity and Access Management), garantendo che solo gli utenti e i servizi autorizzati possano interagire con gli strumenti degli agenti. L'osservabilità è assicurata da completi registri di audit (audit logging), che tracciano tutte le attività. Inoltre, Model Armor offre una protezione specifica contro le nuove minacce peculiari dei modelli linguistici di grandi dimensioni (LLM), come le iniezioni di prompt indirette che potrebbero tentare di manipolare il comportamento degli agenti tramite dati di terze parti.
L'obiettivo generale è chiaro: costruire un ecosistema robusto e sicuro dove i modelli di intelligenza artificiale, sia che si tratti di Gemini 3 o di altre soluzioni, possano prosperare e operare in piena sicurezza. Google non si ferma qui: annuncia già l'espansione del supporto. Nei mesi a venire, il supporto MCP si estenderà a un'ampia gamma di altri servizi cloud, inclusi Cloud Run, Cloud Storage, Spanner, Cloud SQL e persino agli strumenti di sicurezza (SecOps), rafforzando ulteriormente l'integrazione e la versatilità degli agenti IA.
In quanto membro fondatore della Agentic AI Foundation a fianco di Anthropic, Google conferma con questa mossa non solo la sua volontà di fornire i modelli di intelligenza artificiale più avanzati e intelligenti, ma soprattutto di costruire l'infrastruttura più robusta e sicura per consentire a questi modelli di lavorare efficacemente e in modo affidabile nel mondo reale.
Fonte: Announcing Model Context Protocol (MCP) support for Google services, 11 dicembre 2025 (Google).