HomeModelli AIRAGMCP OrchestrazionePrompt Engineering Quando (Non) Usare AIChipsBotNews

Azure AI Foundry: Microsoft potenzia la sua offerta per l'IA agentiva

LeMagIT 12 aprile 2026

Il panorama dell'intelligenza artificiale è in continua evoluzione, e negli ultimi tempi l'attenzione del settore si è spostata in modo significativo dai grandi modelli di linguaggio (LLM) agli agenti e all'IA agentiva. Non che l'interesse delle aziende per le novità dei fornitori di LLM sia diminuito, ma la priorità ora è implementare sistemi più o meno autonomi in grado di svolgere compiti complessi. Le direzioni dei sistemi informativi (DSI) non hanno necessariamente atteso che i fornitori di cloud definissero in dettaglio le loro offerte, e parallelamente, attori come AWS, GCP e Azure hanno progressivamente arricchito i propri servizi.

In questo contesto, durante l'evento Microsoft Build, la casa di Redmond ha annunciato un importante aggiornamento di Azure AI Foundry (precedentemente noto come AI Studio) per supportare questi casi d'uso emergenti. La piattaforma vanta già un'ampia adozione, essendo stata utilizzata da oltre 10.000 clienti, tra cui spiccano nomi come Heineken e Fujitsu. Questo indica una forte domanda del mercato per soluzioni che abilitino la creazione e la gestione di agenti IA.

Azure AI Foundry Agent Service: Un'Annuncio Strutturale per l'IA Agentiva

Una delle principali novità presentate è la disponibilità generale di Azure AI Foundry Agent Service. Questo servizio gestito è stato progettato per consentire alle organizzazioni di "progettare, distribuire" e scalare agenti IA in modo efficiente. L'Agent Service si presenta come una soluzione completa, accompagnata da una serie di strumenti e risorse fondamentali. Tra questi, troviamo:

  • Modelli (template): Per avviare rapidamente lo sviluppo.
  • Azioni: Componenti predefiniti o personalizzabili che gli agenti possono eseguire.
  • Oltre 1400 connettori "sorgente": Permettono agli agenti di interagire con una vasta gamma di sistemi e dati esistenti, ma non sono connettori "target".

Gli agenti sviluppati tramite questo servizio possono essere distribuiti su diverse piattaforme e applicazioni, estendendo la loro utilità e integrazione. In particolare, è possibile implementarli su applicazioni Microsoft 365 (come Teams e Office), Slack e Twilio, garantendo una flessibilità notevole nell'ambiente operativo.

In una fase di anteprima, Microsoft ha anche introdotto un catalogo che raccoglie tutti gli agenti IA sviluppati. Questo catalogo non solo fornisce una panoramica degli agenti disponibili, ma include anche un link diretto al repository GitHub o Azure DevOps associato, facilitando la collaborazione e la gestione del codice.

Integrazione dei LLM e Ottimizzazione Avanzata

I grandi modelli di linguaggio (LLM) rimangono un pilastro fondamentale dell'IA agentiva e, in questo senso, Microsoft ha continuato a rafforzare le sue capacità di integrazione. La piattaforma ha aggiunto il supporto per Flux pro 1.1, il controverso Grok 3, e ha prolungato il suo contratto con Mistral AI per ospitare e vendere i LLM della startup francese ai suoi clienti. L'accesso alla piattaforma Hugging Face permette inoltre di completare il catalogo di Foundry, che già include circa 1900 modelli, con ben 10.000 modelli elaborati e messi a disposizione dalla comunità open source.

Sebbene il fine-tuning non sia sempre una pratica diffusa tra le organizzazioni, Microsoft ha integrato nel suo servizio ricette specifiche per l'ottimizzazione dei modelli. Queste includono:

  • LoRa
  • QLoRa (per i LLM compressi)
  • DPO (Direct Preference Optimization): Questa tecnica è la più utilizzata per allineare i risultati di un LLM con le preferenze umane, un aspetto cruciale per garantire la pertinenza e l'accettazione degli agenti IA.

All'interno di Agent Service, dopo aver selezionato il LLM desiderato – standard o fine-tuned – gli sviluppatori possono inserire una serie di istruzioni specifiche, selezionare parametri come la temperatura e il top P, e connettere basi di conoscenza. Per impostazione predefinita, Azure mostra solo i servizi AI Search, Fabric, Bing e SharePoint, ma la connettività può essere estesa verso basi di dati vettoriali, offrendo un'ulteriore flessibilità nell'accesso alle informazioni.

Agentic Retrieval per Ricerche Avanzate e Pertinenti

Per migliorare la capacità degli agenti di accedere e interpretare le informazioni, Microsoft ha messo in evidenza Agentic Retrieval, una funzionalità in anteprima pubblica di Azure AI Search. Questa caratteristica sfrutta i LLM per suddividere le query degli utenti in componenti più piccoli. Questo permette di eseguire diverse ricerche in parallelo, per poi riassemblare e presentare un risultato complessivo. Secondo i test interni condotti da Microsoft, questo metodo porterebbe a un aumento del 40% della pertinenza delle risposte a domande complesse o che includono più aspetti, rappresentando un significativo passo avanti nella qualità delle interazioni con gli agenti IA.

Integrazione di Azioni e Connettori: Estendere le Capacità degli Agenti

Una volta configurato il LLM e le basi di conoscenza, lo sviluppatore può aggiungere una serie di azioni che l'agente può eseguire. Queste includono:

  • Un interprete di codice: Per consentire agli agenti di eseguire calcoli o manipolare dati.
  • L'accesso a un'API OpenAPI 3.0: Per interagire con servizi esterni conformi allo standard.
  • Una funzione Logic Apps: Per automatizzare flussi di lavoro complessi.

Attualmente, il fornitore non ha ancora presentato connettori diretti verso soluzioni di terze parti, ma la possibilità di integrare API standard apre comunque la porta a un'ampia gamma di interazioni. A partire da queste funzionalità, diventa possibile connettere un agente ad altri agenti e associarvi strumenti specifici, creando così sistemi agentivi più complessi e collaborativi.

Protocolli di Agenti e Gestione dell'Identità: La Base per la Sicurezza e la Scalabilità

Sotto il cofano, Microsoft ha preso due decisioni strategiche per unificare e standardizzare lo sviluppo di agenti. La prima è stata quella di unificare i suoi framework agentivi Autogen (uno dei primi nel suo genere e molto apprezzato) e Semantic Kernel. La seconda è il supporto per il Model Context Protocol (MCP) e Agent2Agent (A2A). Questi protocolli sono fondamentali per consentire agli agenti di interagire tra loro e con l'ambiente circostante in modo strutturato e sicuro.

Il MCP, attualmente in anteprima in AI Azure Foundry, è già in disponibilità generale in Copilot Studio. Il gigante del cloud prevede inoltre di aggiungere server dedicati associati a Semantic Kernel, Dataverse, Dynamics 365 e Windows 11, rafforzando l'integrazione del protocollo nell'ecosistema Microsoft. Riguardo al MCP, Microsoft è entrata a far parte del comitato direttivo del progetto open source e ha già contribuito con standard per la gestione delle identità degli agenti AI. Questa specifica permette di gestire l'accesso degli agenti AI a strumenti di terze parti tramite Entra ID (ex Azure AD) o un altro strumento SSO (Single Sign-On), garantendo un controllo granulare e sicuro.

Entra Agent ID: Identità Unica per Ogni Agente e Gestione Centralizzata

Queste capacità costituiscono le fondamenta di Entra Agent ID, un servizio in anteprima per Copilot Studio e Azure AI Foundry. Con Entra Agent ID, ogni agente ha diritto a un identificatore unico. Nella console di Entra ID, un amministratore può visualizzare tutti gli agenti sviluppati, indipendentemente dall'ambiente di origine. Una vista dettagliata permette inoltre di esplorare a cosa questi agenti hanno accesso (strumenti, database, API, ecc.) all'interno di un'organizzazione, migliorando la governance e la trasparenza.

Microsoft partecipa anche allo sviluppo di un servizio di scoperta di server MCP tramite i loro registri. Parallelamente, l'azienda propone NLWeb, un progetto open source volto ad aggiungere un'interfaccia conversazionale a qualsiasi sito web, ampliando le possibilità di interazione basate sull'IA.

Per quanto riguarda A2A (Agent2Agent), sviluppato da Google, non è ancora così sviluppato come MCP nell'ecosistema Microsoft. È disponibile in anteprima tramite Azure AI Foundry e Azure Copilot, suggerendo un potenziale futuro di integrazione e sviluppo.

Monitoraggio e Debugging Approfonditi degli Agenti

Tornando ad Agent Service, una volta superata la fase di configurazione, gli sviluppatori possono accedere a un "playground" o ambiente di test dedicato per verificare il comportamento dell'agente. Qui, in anteprima, possono consultare "tracce precise" sulle azioni del sistema agentivo. Nella console, queste tracce sono presentate come elementi JSON, un formato standard per lo scambio di dati. Microsoft si basa chiaramente su OpenTelemetry e si ispira all'interfaccia di strumenti di osservabilità come Signoz.

Il monitoraggio fornito è piuttosto completo e include:

  • Prompt in ingresso
  • Risposte in uscita
  • Strumenti o agenti richiamati
  • Messaggi trasmessi

Tuttavia, contrariamente a quanto affermato da Microsoft, il sistema non mostra ancora le fasi di ragionamento intra-LLM. Visualizza solo una "catena" di input-output, ovvero gli scambi tra i LLM, offrendo comunque una preziosa visibilità sul flusso di esecuzione.

Automatizzazione della Sorveglianza degli Agenti IA per Sicurezza e Conformità

Per mitigare il problema dell'"effetto scatola nera" tipico di molti sistemi di IA, il gigante del cloud ha presentato due strumenti volti a limitare i rischi e garantire il comportamento atteso degli agenti.

In anteprima, l'"evaluatore di agenti" ha il compito di verificare "automaticamente" se l'agente creato da uno sviluppatore segue le istruzioni e utilizza correttamente gli strumenti, basandosi su una suite di esempi elaborati in batch. Questo strumento dispone già di una vasta gamma di rilevatori per identificare problematiche quali:

  • Risoluzione dell'intenzione
  • Precisione della chiamata agli strumenti
  • Aderenza al compito
  • Coerenza e fluidità del comportamento
  • Presenza di vulnerabilità nel codice generato
  • Generazione di contenuti violenti, sessuali, non equi o protetti da IP
  • Attacchi indiretti

Sempre in anteprima, un agente chiamato AI Red Teaming Agent si basa sul framework open source PyRIT (Python Risk Identification Tool), sviluppato internamente da Microsoft. Questo strumento simula attacchi "per esempi contraddittori", misura un tasso di successo degli attacchi e genera una mappa dei rischi e delle vulnerabilità associati a un agente e al suo LLM. Parallelamente, Azure AI Foundry è già integrato con il CNAPP Microsoft Defender for Cloud, rafforzando ulteriormente le sue capacità di sicurezza.

Queste valutazioni assistite dall'IA possono essere ulteriormente monitorate attraverso tracce, metriche e log. I costi associati a queste valutazioni sono fatturati a 20 dollari per 1 milione di token in ingresso e 60 dollari per 1 milione di token in uscita. I portavoce di Microsoft affermano inoltre che le misure di protezione per evitare che gli agenti rivelino informazioni personali o riservate o attivino "compiti proibiti" sono state significativamente migliorate.

Un'Offerta End-to-End, Pregi e Difetti Inclusi

Infine, Microsoft ha sottolineato l'importanza della governance degli agenti IA. Strumenti come Microsoft Purview, Saidot e Credo AI possono essere utilizzati per governare gli agenti, non solo per visualizzarli, ma anche per applicarvi regole specifiche al fine di rispettare normative emergenti come l'AI Act. Questo aspetto è cruciale per garantire che l'implementazione dell'IA agentiva avvenga in modo etico e conforme.

"Microsoft vuole essere il vostro stack di sviluppo agentivo", osservano gli analisti di Constellation Research. Questo riassume la visione del gigante del cloud: appoggiandosi su un insieme di componenti open source, Microsoft mira a coprire lo sviluppo di agenti e sistemi agentivi in modo end-to-end, dalla progettazione alla distribuzione, dal monitoraggio alla governance.

Nonostante l'offerta di Microsoft sia centrata sui servizi Azure, i primi dispiegamenti su larga scala evidenziano architetture multicloud e l'uso crescente di componenti open source. In alcuni casi, questa è una scelta deliberata da parte delle aziende per limitare le dipendenze da un singolo fornitore. Microsoft, tuttavia, sta chiaramente posizionando Azure AI Foundry come una soluzione completa e integrata, pronta a supportare la prossima ondata di innovazione basata sull'intelligenza artificiale agentiva.

Leggi l'articolo originale →
← Torna alle news