HomeModelli AIRAGMCP OrchestrazionePrompt Engineering Quando (Non) Usare AIChipsBotNews

All'interno degli agenti IA: una guida tecnica verso la prossima frontiera dell'IA generativa

ITSitio 6 aprile 2026

Gli agenti sono l'argomento più dibattuto nel campo dell'IA oggi, e a ragione. Questi sistemi agiscono per conto dei loro utenti, gestendo autonomamente compiti come l'effettuazione di acquisti online, la creazione di software, la ricerca di tendenze aziendali o la prenotazione di viaggi. Portando l'IA generativa dall'ambiente protetto dell'interfaccia di chat e permettendole di agire direttamente nel mondo reale, l'IA basata su agenti rappresenta un enorme progresso in termini di potenza e utilità dell'IA.

L'IA basata su agenti ha fatto passi da gigante molto rapidamente: ad esempio, uno dei pilastri fondamentali degli agenti attuali, il protocollo di contesto del modello (MCP), ha solo un anno. Come in ogni campo in rapida evoluzione, esistono molte definizioni contrastanti, opinioni controverse e punti di vista fuorvianti.

Gli agenti IA operano in cicli di pensiero-azione-osservazione, utilizzando strumenti per avanzare verso un obiettivo definito dall'utente. Per chiarire le cose, mi piacerebbe descrivere i componenti di base di un sistema di IA basato su agenti e come si incastrano tra loro: in realtà, non è così complicato come sembra. Spero che, quando avrai finito di leggere questo articolo, gli agenti non ti sembreranno più così misteriosi.

Ecosistema Agente

Esistono numerose definizioni della parola "agente", ma a me piace una leggera variazione della visione minimalista del programmatore britannico Simon Willison: un agente LLM esegue strumenti in un ciclo per raggiungere un obiettivo. L'utente impartisce un ordine a un modello linguistico di grandi dimensioni (LLM) con un obiettivo: ad esempio, prenotare un tavolo in un ristorante vicino a un teatro specifico. Insieme all'obiettivo, il modello riceve un elenco degli strumenti a sua disposizione, come un database di posizioni di ristoranti o un registro delle preferenze alimentari dell'utente.

A questo punto, il modello pianifica come raggiungere l'obiettivo e ricorre a uno degli strumenti, che fornisce una risposta; poi, il modello ricorre a un nuovo strumento. Attraverso ripetizioni, l'agente avanza verso il raggiungimento dell'obiettivo. In alcuni casi, le opzioni di coordinamento e pianificazione del modello sono integrate o migliorate con codice imperativo. Ma che tipo di infrastruttura è necessaria per attuare questo approccio? Un sistema basato su agenti necessita di alcuni componenti di base:

  • Una forma per creare l'agente. Quando si implementa un agente, non si vuole doverlo programmare da zero. Esistono diversi framework di sviluppo di agenti.
  • Un luogo dove eseguire il modello di IA. Uno sviluppatore di IA esperto può scaricare un LLM open-weight, ma è necessaria esperienza per farlo correttamente. È anche necessario hardware costoso che l'utente medio non utilizzerà nella sua interezza.
  • Un luogo dove eseguire il codice dell'agente. Con i framework consolidati, l'utente crea codice per un oggetto agente con un insieme definito di funzioni. La maggior parte di queste funzioni implica l'invio di istruzioni a un modello di IA, ma il codice deve essere eseguito da qualche parte. In pratica, la maggior parte degli agenti verrà eseguita nel cloud, perché vogliamo che continuino a funzionare quando chiudiamo i nostri portatili e vogliamo che si espandano e si adattino per svolgere il loro lavoro.
  • Un meccanismo per tradurre tra l'LLM basato su testo e le chiamate agli strumenti.
  • Una memoria a breve termine per tenere traccia del contenuto delle interazioni degli agenti.
  • Una memoria a lungo termine per tenere traccia delle preferenze e delle affinità dell'utente nel corso delle sessioni.
  • Una forma per tracciare l'esecuzione del sistema, per valutare le prestazioni dell'agente.

L'ascesa dei sistemi basati su agenti segna una nuova tappa nell'evoluzione dell'intelligenza artificiale. Approfondiamo ora ciascuno di questi componenti.

Agenti IA: creazione di un agente

Chiedere a un LLM di spiegare come intende affrontare un compito specifico ne migliora le prestazioni in tale compito. Questo "ragionamento a catena" è ormai onnipresente nell'IA. L'equivalente nei sistemi basati su agenti è il modello ReAct (ragionamento + azione), in cui l'agente ha un pensiero ("Userò la funzione mappa per localizzare i ristoranti vicini"), esegue un'azione (emette una chiamata API alla funzione mappa) e poi fa un'osservazione ("Ci sono due pizzerie e un ristorante indiano a due isolati dal cinema").

ReAct non è l'unico modo per creare agenti, ma è la base della maggior parte dei sistemi basati su agenti di successo. Oggi, gli agenti sono solitamente cicli sulla sequenza pensiero-azione-osservazione.

Gli strumenti disponibili per l'agente possono includere strumenti locali e remoti, come database, microservizi e software-as-a-service. Le specifiche di uno strumento includono una spiegazione in linguaggio naturale di come e quando viene utilizzato, nonché la sintassi delle sue chiamate API.

Lo sviluppatore può anche indicare all'agente di creare, in pratica, i propri strumenti al volo. Supponiamo che uno strumento recuperi una tabella memorizzata come testo separato da virgole e che, per raggiungere il suo obiettivo, l'agente debba ordinare la tabella.

La combinazione di modelli linguistici e strumenti esterni favorisce l'emergere di agenti più capaci ed efficienti.

Ordinare una tabella inviandola ripetutamente attraverso un LLM e valutando i risultati sarebbe un enorme spreco di risorse, e non è nemmeno garantito che si ottenga il risultato corretto. Invece, lo sviluppatore può semplicemente indicare all'agente di generare il proprio codice Python quando si trova di fronte a un compito semplice ma ripetitivo. Questi frammenti di codice possono essere eseguiti localmente insieme all'agente o in uno strumento dedicato di interpretazione sicura del codice.

Gli strumenti disponibili possono dividere la responsabilità tra l'LLM e lo sviluppatore. Una volta specificati gli strumenti disponibili per l'agente, lo sviluppatore può semplicemente indicare all'agente quali strumenti utilizzare quando necessario. Oppure, lo sviluppatore può specificare quale strumento utilizzare per ogni tipo di dato e persino quali elementi di dati utilizzare come argomenti durante le chiamate a funzioni.

Allo stesso modo, lo sviluppatore può semplicemente indicare all'agente di generare codice Python quando necessario per automatizzare compiti ripetitivi o, in alternativa, indicargli quali algoritmi utilizzare per ogni tipo di dato e persino fornire pseudocodice. L'approccio può variare da un agente all'altro.

La memoria e il ragionamento strutturato sono fondamentali affinché gli agenti agiscano in scenari reali.

Tempo di esecuzione

Storicamente, esistevano due modi principali per isolare il codice che veniva eseguito su server condivisi: la containerizzazione, che era efficiente ma offriva minore sicurezza; e le macchine virtuali, che erano sicure ma comportavano un grande overhead computazionale. Nel 2018, il servizio di calcolo serverless Lambda di Amazon Web Services (AWS) ha implementato Firecracker, un nuovo paradigma nell'isolamento dei server.

Firecracker crea "microVM" (micro virtual machine), con isolamento hardware e i propri kernel Linux, ma con un overhead ridotto (di appena pochi megabyte) e tempi di avvio ridotti (di appena pochi millisecondi). Il basso overhead significa che ogni funzione eseguita su un server Lambda può avere la propria microVM.

Tuttavia, poiché l'istanziamento di un agente richiede l'implementazione di un LLM, insieme alle risorse di memoria per tracciare gli input e gli output dell'LLM, il modello di isolamento...

Leggi l'articolo originale →
← Torna alle news