Workspace agent in ChatGPT: OpenAI trasforma le GPT in agenti di team
Mentre Google annuncia il suo Workspace AI dalla tribuna di Next ’26, OpenAI risponde prontamente rilasciando i workspace agent in ChatGPT. Questi sono descritti come una vera e propria "evoluzione delle GPT" e sono spinti dallo stesso potente motore di Codex, un'architettura che OpenAI ha sviluppato per compiti complessi di lungo orizzonte.
Questo lancio arriva a valle di una settimana particolarmente intensa per OpenAI, che ha già rilasciato ChatGPT Images 2, Chronicle in Codex e il Codex per Mac. Si tratta dell'ennesimo tassello di una pressione continua sul mercato degli agenti enterprise, un settore che vede giganti tecnologici come Microsoft con Foundry Agent Service, Notion con Custom Agents, Google con Vertex Agent Builder e Anthropic con Claude in ambienti verticali, competere per definire il futuro del lavoro potenziato dall'intelligenza artificiale.
L'evoluzione dalle Custom GPT: da strumenti individuali ad agenti di team
Il punto di rottura fondamentale rispetto alle Custom GPT è che i nuovi workspace agent smettono di essere uno strumento individuale, spesso limitato da un prompt lungo e da qualche file allegato, per trasformarsi in veri e propri oggetti di team. Ogni agente è dotato del proprio workspace dedicato, di una memoria persistente che attraversa le sessioni, dell'accesso a codice, file e tool specifici del team, e di un collegamento diretto a Slack. Da qui, gli agenti possono ricevere richieste in autonomia, diventando una presenza continua e proattiva nel flusso di lavoro. A corredo, un pannello di amministrazione con controlli basati sui ruoli (role-based controls) permette di regolare chi può creare gli agenti e condividerli con quali specifici permessi.
Questa trasformazione pone una domanda concreta per chi oggi ha costruito processi interni basati su GPT custom: quando e come vale la pena migrare a questa nuova e sostanzialmente diversa superficie. OpenAI ha dichiarato che un convertitore da GPT a workspace agent è in arrivo, ma intanto le due soluzioni convivono, rendendo necessario comprendere quale sia la più adatta per le diverse esigenze aziendali.
Le tre assi della differenza architetturale
Le differenze architetturali tra Custom GPT e workspace agent, lette dai comunicati e dai dettagli tecnici pubblicati, si giocano su tre assi principali che ne definiscono la superiore funzionalità e il posizionamento strategico:
- La persistenza: Una Custom GPT è, in sostanza, uno stampo statico che risponde a ogni chat partendo dalle stesse istruzioni iniziali. Al contrario, un workspace agent possiede una memoria che attraversa le diverse sessioni, permettendogli di accumulare contesto, correzioni e preferenze di un team nel tempo, evolvendo e migliorando la sua efficacia d'uso.
- L'autonomia operativa: L'agente può essere impostato su una pianificazione (schedule) o collegato direttamente a Slack, e da lì prende in carico le richieste senza necessitare di un prompt ogni volta dall'utente. Diventa così una presenza continua e integrata nel flusso di lavoro, non un semplice assistente che si attiva solo quando qualcuno apre ChatGPT. Le azioni più sensibili, come l'invio di un'email o la creazione di un evento in calendario, richiedono sempre un'approvazione umana, e l'amministratore ha la possibilità di vedere quante volte un agente condiviso viene utilizzato tramite analitiche dettagliate.
- L'orientamento al team, non al singolo: Un workspace agent è progettato per operare in un contesto di gruppo. Ha accesso controllato a file, tool e connettori definiti dal workspace, segue il workflow di un gruppo, gestisce le approvazioni attraverso i ruoli corretti e può essere duplicato o condiviso come template per altri processi simili. Le Custom GPT offrivano qualcosa di simile solo in modo superficiale, in quanto mancava un concetto nativo di ruolo e permesso e la memoria persistente era del tutto assente.
Il ruolo strategico del motore Codex
La scelta di far girare i workspace agent sul motore Codex è tecnicamente molto rilevante e strategicamente coerente con la visione di OpenAI. Codex è il motore che OpenAI ha sviluppato specificamente per task di lungo orizzonte, caratterizzato dalla gestione di worktree isolati, dalla capacità di eseguire codice, dalla diff review e dall'orchestrazione di più task in parallelo. Portare questa infrastruttura sotto i workspace agent significa ereditare una base pensata per compiti che si sviluppano nel tempo e che richiedono continuità, piuttosto che per semplici risposte immediate.
Le indiscrezioni emerse nelle settimane precedenti al lancio, riferite al progetto interno denominato "Hermes", parlavano di agenti always-on, veri e propri "teammates 24/7", pensati per agire su cadenza, eventi e messaggi in arrivo invece di aspettare passivamente un prompt. I workspace agents annunciati oggi sembrano la prima incarnazione pubblica di quella direzione, anche se la versione Research Preview lascia ancora aperto il quesito su quanto le funzionalità di scheduling e trigger siano già mature e robuste.
La promessa ambiziosa e il flusso di creazione intuitivo
La promessa di OpenAI è ambiziosa: impacchettare la conoscenza che oggi vive dispersa tra persone e sistemi all'interno di workflow riutilizzabili, che seguano il processo giusto e utilizzino gli strumenti appropriati. Un team può definire un agente una volta, raffinarlo nel tempo con l'esperienza e duplicarlo facilmente per gestire nuovi casi d'uso. Se questa promessa regge, il profilo d’uso dei workspace agent somiglierà meno a quello di un chatbot e più a quello di un collega che apprende le regole della casa e si adegua dinamicamente.
Il flusso di creazione di questi agenti è stato volutamente mantenuto semplice e conversazionale. L'utente descrive un workflow ricorrente o carica un file, e ChatGPT si occupa di trasformare queste informazioni in un agente operativo, definendo gli step necessari, connettendo gli strumenti pertinenti, aggiungendo le skill richieste e testando il risultato finale. Si tratta dello stesso modello conversazionale già visto con le Custom GPT, ma applicato a qualcosa di più complesso, e con un output che è un "oggetto vivo" e dinamico, anziché una semplice configurazione statica.
Integrazione con Slack e controlli granulari per gli amministratori
L'integrazione con Slack è probabilmente la feature più pratica e impattante di questo lancio, poiché sposta il punto di contatto dove le conversazioni di team avvengono realmente. Un agente configurato per un processo di customer support o di sales ops può essere invocato direttamente da un canale Slack, prendere in carico la richiesta, chiedere conferme quando necessario e chiudere il task senza che nessuno debba aprire esplicitamente ChatGPT. OpenAI anticipa che altre integrazioni significative arriveranno a valle di questa, espandendo ulteriormente l'ecosistema di utilizzo degli agenti.
Gli amministratori godono di controlli granulari su quali tool e quali dati ciascun agente può accedere e manipolare, e su quando è necessaria un'approvazione umana per determinate azioni. Le analitiche d’uso, sebbene non descritte in dettaglio, sono un indicatore chiave che la gestione aziendale dell’agente è trattata come quella di un prodotto interno, con dashboard d’adozione e metriche di utilizzo continuo nel tempo. Chi ha gestito piattaforme interne lo sa bene: se non c’è un dashboard d’uso chiaro e monitorabile, la piattaforma rischia di morire in silenzio, senza che nessuno se ne accorga.
Distribuzione prudente e modello di prezzo a consumo
La distribuzione dei workspace agent segue un pattern prudente: sono disponibili in Research Preview per i clienti Business, Enterprise, Education e Teachers. Gli amministratori delle organizzazioni Enterprise ed Education possono attivare la feature tramite i controlli basati sui ruoli. È importante notare che non è previsto un rollout su Plus e Pro al momento del lancio, il che è coerente con un posizionamento B2B e con la volontà di testare carichi e pattern d’uso su clienti strutturati prima di aprire a un pubblico più ampio.
La finestra gratuita per l'utilizzo dei workspace agent si estende fino al 6 maggio 2026, offrendo ai team circa due settimane per sperimentare senza costi. Successivamente, entrerà in vigore un modello credit-based. Sebbene prezzi e soglie non siano ancora pubblici, l’impostazione a credito lascia intuire un modello di tariffazione a consumo che scala con il numero di task eseguiti, piuttosto che con il numero di agenti creati. Per i team che desiderano valutare seriamente questa nuova capacità, questa finestra è breve e richiede di preparare in anticipo un paio di workflow candidati, anziché arrivare al 3 maggio con una GPT da migrare.
Contesto competitivo e implicazioni di governance
Nel più ampio contesto competitivo, questa mossa posiziona OpenAI in modo frontale rispetto a Notion, che ha giocato per prima la carta degli agenti condivisi con Custom Agents, e rispetto a Microsoft, che con Foundry Agent Service opera a un livello infrastrutturale più basso ma con un’integrazione profonda con M365 che OpenAI non possiede. La differenza sostanziale, dal punto di vista dell’utente aziendale, è che ChatGPT come interfaccia è già nelle mani di decine di milioni di professionisti, e ora quella superficie ospita agenti persistenti con memoria, capacità di pianificazione e integrazione con Slack, rendendoli immediatamente accessibili a un vasto pubblico.
Lo spostamento dagli strumenti individuali ai “teammates” persistenti apre un tema di governance che molte aziende hanno finora potuto rimandare. Le Custom GPT, vivendo all’interno dell’account singolo, producevano rischi contenuti. Un workspace agent, invece, ha memoria condivisa, accesso a connettori aziendali, capacità di eseguire azioni verso sistemi esterni e un ciclo di vita che va ben oltre la singola chat. I responsabili di security e compliance si troveranno a rispondere a domande cruciali che prima non si ponevano: Chi possiede i dati che l’agente ricorda? Cosa succede quando un dipendente che ha creato un agente lascia l’azienda? Come si audit-ano le decisioni prese dall’agente in autonomia? Quali policy DLP (Data Loss Prevention) si applicano sui dati che l’agente processa?