HomeModelli AIRAGMCP OrchestrazionePrompt Engineering Quando (Non) Usare AIChipsBotNews

Costruire agenti AI di nuova generazione con strumenti OpenAI e MCP

Substack 6 aprile 2026

L'ecosistema degli agenti di intelligenza artificiale continua a evolversi e a migliorare, promettendo una nuova ondata di sistemi autonomi sempre più capaci. Recenti sviluppi da parte di OpenAI e Anthropic stanno definendo il futuro di questa tecnologia, fornendo ai costruttori di agenti AI strumenti e protocolli essenziali per la prossima generazione di applicazioni. In particolare, il rilascio da parte di OpenAI di nuove API, strumenti integrati e un SDK dedicato, unito alla crescente adozione del Model Context Protocol (MCP) di Anthropic, sta espandendo notevolmente le capacità e l'interoperabilità all'interno di questo campo in rapida crescita.

L'ecosistema per la costruzione di agenti AI si espande

Gli agenti AI, sistemi di intelligenza artificiale capaci di pianificare e agire autonomamente in modo intelligente, sono resi possibili da strumenti, framework e standard che ne facilitano la costruzione e l'orchestrazione. Nel nostro precedente articolo, "Manus and the New AI Agents", avevamo già evidenziato come il 2025 avrebbe visto un'esplosione di agenti AI altamente performanti. Questo perché i modelli di ragionamento AI, gli strumenti e l'ecosistema complessivo continuano a evolvere e a migliorare. L'ecosistema per gli agenti AI si sta espandendo e perfezionando per supportare agenti sempre più avanzati.

I framework per applicazioni AI, come LangChain (e la loro libreria di agenti AI LangGraph), AutoGen e CrewAI, sono stati inizialmente sviluppati tra il 2022 e il 2024 per integrare flussi di lavoro basati su LLM, collegando i modelli di linguaggio in catene di prompt e integrando RAG (Retrieval Augmented Generation) e altre capacità (come l'invocazione di strumenti e funzioni). Questi framework hanno reso possibile la prima generazione di agenti AI basati su LLM.

Man mano che i modelli AI hanno aggiunto capacità come la multi-modalità e il tool-calling, alcuni flussi di lavoro AI sono stati semplificati, mentre altri, più complessi, sono diventati realizzabili. I framework per agenti AI si sono spostati "a monte" e hanno ampliato il loro raggio d'azione, consentendo una nuova generazione di agenti AI più capaci. Alcuni recenti sviluppi in quest'area includono: il Model Context Protocol (MCP) di Anthropic; il framework per agenti AI Goose di Block; e i protocolli LangChain e gli standard di interoperabilità AGNTCY. Lo sviluppo più recente è il rilascio da parte di OpenAI di nuovi strumenti per la costruzione di agenti.

OpenAI rilascia Responses API, strumenti integrati e Agents SDK

OpenAI ha appena rilasciato quattro componenti chiave per supportare la costruzione di agenti: Responses API, strumenti integrati (ricerca web, ricerca file e uso del computer), Agents SDK e strumenti di osservabilità. Il rilascio di questi quattro componenti da parte di OpenAI sta aprendo il loro stack tecnologico ai costruttori di agenti AI.

Responses API: un'interfaccia unificata per la complessità

La nuova Responses API è una nuova API unificata per utilizzare i modelli e gli strumenti integrati di OpenAI:

  • La Responses API è progettata per gli sviluppatori che desiderano combinare facilmente i modelli OpenAI e gli strumenti integrati nelle loro app, senza la complessità di integrare più API o fornitori esterni.
  • Con una singola chiamata alla Responses API, gli sviluppatori saranno in grado di risolvere compiti sempre più complessi utilizzando più strumenti e turni del modello.

La Responses API fornisce un superset di funzionalità rispetto alla Chat Completions API, supportando la completamento della chat a singolo turno e aggiungendo il supporto per flussi complessi e a più turni. La Responses API aggiungerà il supporto per sostituire l'Assistants API, in modo da avere un unico schema di interfaccia per supportare sia i casi d'uso AI semplici che quelli complessi.

La Responses API include strumenti integrati: ricerca web, ricerca file e uso del computer. Condividendo gli strumenti integrati utilizzati per realizzare applicazioni AI agentiche come Deep Research e Operator, OpenAI sta esponendo le capacità per gli sviluppatori di costruire le proprie versioni di Deep Research e Operator, oltre ad altri agenti AI.

  • Ricerca Web fornisce informazioni internet aggiornate, consentendo flussi per la verifica dei fatti in tempo reale. OpenAI ha ottimizzato GPT-4o in una versione di anteprima GPT-4o-search per ottenere in modo più accurato le informazioni corrette da una ricerca e citarle correttamente. Questa versione ottimizzata ha una maggiore precisione nel rispondere a domande brevi e fattuali.
  • Ricerca File consente a un modello AI di sfruttare dati privati in una capacità RAG integrata; permette il filtro dei metadati, il riordino personalizzato e una versione ottimizzata di GPT-4o per fornire informazioni precise.
  • Uso del Computer completa le attività per gli utenti utilizzando il computer. Come con OpenAI Operator, funziona basandosi su screenshot: gli si invia uno screenshot e esso indica quali azioni intraprendere.

Agents SDK: orchestrazione aperta e agnostica

Il nuovo Agents SDK orchestra flussi di lavoro a singolo agente e multi-agente. L'Agents SDK è basato sul rilascio di OpenAI Swarm dell'anno scorso, un rilascio sperimentale per supportare sistemi multi-agente. L'Agents SDK include il supporto aggiuntivo per agenti configurabili, tipi, guardrail integrati e migliore tracciamento e osservabilità. È anche open-source e si presenta come indipendente dal modello:

“L'Agent SDK è open-source, permettendo alle aziende di combinare modelli diversi. Non vogliamo costringere nessuno a usare solo modelli OpenAI.” - Olivier Godement.

Strumenti di osservabilità: semplificare il debug

OpenAI ha anche condiviso strumenti di osservabilità per tracciare e ispezionare l'esecuzione dei flussi di lavoro degli agenti. Questi strumenti memorizzano lo stato della chat (per 30 giorni) e forniscono una dashboard per vedere cosa è successo, il tutto per semplificare il debug degli agenti AI.

La visione di OpenAI è un mondo in cui gli sviluppatori utilizzano modelli e strumenti OpenAI "sotto il cofano" per costruire una diversità di agenti AI. OpenAI monetizza i suoi modelli AI e gli strumenti di supporto tramite le sue API, raccogliendo un grande valore economico da tali applicazioni AI.

Anthropic MCP guadagna terreno

Anthropic ha introdotto il Model Context Protocol (MCP) alla fine del 2024, offrendo un protocollo di interoperabilità e un connettore standardizzato tra strumenti e LLM per supportare applicazioni AI complesse. Abbiamo discusso di come il Model Context Protocol cambia l'integrazione AI quando è stato lanciato per la prima volta.

MCP è un protocollo aperto, agnostico rispetto al modello, che utilizza un'architettura client-server semplice per standardizzare il modo in cui contesto e informazioni vengono scambiati. Gli sviluppatori possono eseguire server MCP che espongono dati da repository di contenuti, database e applicazioni. Gli sviluppatori di agenti AI costruiscono client MCP che si connettono a questi server. Ciò consente di costruire agenti senza dover sviluppare connettori personalizzati per sfruttare conoscenze o strumenti al di là dei loro dati di training.

Molti server MCP sono stati configurati per supportare l'integrazione di vari strumenti, con centinaia di servizi e basi di conoscenza connesse, come ad esempio un server GitHub. Questo rende MCP particolarmente prezioso in applicazioni dove è necessario un contesto ricco o conoscenze esterne per il processo decisionale. MCP può standardizzare l'automazione di molte attività; ad esempio, per automatizzare l'autenticazione, le proprie credenziali possono essere un MCP privato.

Il Model Context Protocol sembra stia decollando. Man mano che l'ecosistema MCP è cresciuto, lo slancio ha portato a un aumento del clamore intorno a MCP sui canali YouTube AI, con video esplicativi su "Building anything with MCP Agents" e su come "supercharge your Cursor with MCP".

Goose di Block e MCP

Recentemente, Block ha introdotto Goose, un framework per agenti AI open-source e modulare, progettato per consentire agli sviluppatori di costruire agenti AI autonomi in grado di eseguire compiti complessi nel mondo reale.

Il focus di Goose è sull'automazione dei compiti di ingegneria, supportando sviluppatori di software e team di ingegneria nella costruzione di agenti AI autonomi per attività come la migrazione del codice, la generazione di test unitari e il debugging. I creatori di Goose lo descrivono così: “Il tuo agente AI on-machine, che automatizza i compiti di ingegneria senza soluzione di continuità.”

Goose collega gli strumenti agli LLM utilizzando il Model Context Protocol (MCP) open source di Anthropic per facilitare le connessioni tra l'agente e i sistemi esterni. Sfruttando MCP, Goose raggiunge l'interoperabilità tra diverse interfacce utente, modelli di linguaggio e sistemi, rendendolo adattabile a vari ambienti e casi d'uso.

Goose è un framework per agenti AI utile, e essendo open-source, estensibile e costruito su protocolli standard come MCP, non c'è alcun blocco del fornitore o svantaggio nel provarlo. Goose sta convalidando MCP, dimostrando come i protocolli standardizzati migliorino l'ecosistema degli agenti AI.

LangChain e AGNTCY

LangChain è diventato uno dei framework per applicazioni AI più popolari essendo un ricco set open-source di integrazioni per flussi di lavoro basati su LLM. LangChain si è evoluto in un'architettura modulare ed estensibile che supporta la costruzione di chatbot, assistenti e applicazioni AI agentiche alimentate da LLM.

Leggi l'articolo originale →
← Torna alle news