Annunci di Mosaic AI al Data + AI Summit 2025: le novità di Databricks
Lo scorso anno, Databricks ha introdotto il concetto di intelligenza dei dati – un'IA capace di ragionare sui dati aziendali – con il lancio dello stack Databricks Mosaic AI per la creazione e la distribuzione di sistemi di agenti. Da allora, migliaia di clienti hanno adottato e implementato l'IA in produzione, testimoniando il valore e la trasformazione che queste tecnologie possono portare.
Quest'anno, in occasione del prestigioso Data + AI Summit, Databricks è entusiasta di annunciare una serie di prodotti e miglioramenti chiave che consolidano ulteriormente la sua leadership nel settore dell'intelligenza artificiale e dei dati. Questi annunci mirano a rendere l'IA aziendale ancora più accessibile, efficiente e conveniente, fornendo strumenti all'avanguardia per lo sviluppo e la gestione di soluzioni di intelligenza artificiale di nuova generazione.
Agenti intelligenti e ottimizzati con Agent Bricks
Agent Bricks rappresenta un approccio rivoluzionario alla costruzione di agenti di alta qualità, capaci di auto-ottimizzarsi utilizzando i dati aziendali. La sua semplicità d'uso è un punto di forza: è sufficiente fornire una descrizione generale del compito dell'agente e connettere i dati aziendali pertinenti, e Agent Bricks si occuperà del resto.
Questo strumento è stato specificamente ottimizzato per un'ampia gamma di casi d'uso comuni in diversi settori, tra cui:
- Estrazione di informazioni strutturate da documenti complessi.
- Assistenza basata su conoscenza affidabile, garantendo risposte accurate e pertinenti.
- Trasformazione personalizzata del testo per adattarsi a specifiche esigenze aziendali.
- Costruzione di sistemi multi-agente, permettendo la collaborazione tra diversi agenti per risolvere problemi più complessi.
Per garantire la massima qualità e ottimizzazione, Agent Bricks sfrutta le più recenti ricerche nel campo degli agenti sviluppate dal team di ricerca di Databricks Mosaic AI. Questo consente la generazione automatica di valutazioni e l'ottimizzazione continua della qualità e dei costi degli agenti. Per approfondimenti, è disponibile un post sul blog dedicato ad Agent Bricks.
MLflow 3.0: la nuova era per la GenAI
Databricks ha lanciato MLflow 3.0, una versione completamente riprogettata da zero per l'IA Generativa (GenAI). Questa nuova iterazione introduce funzionalità all'avanguardia per il monitoraggio, la valutazione e la gestione dell'intero ciclo di vita dell'IA.
Con MLflow 3.0, gli utenti possono ora monitorare e osservare gli agenti indipendentemente da dove vengano distribuiti, anche al di fuori della piattaforma Databricks. Ciò significa che agenti implementati su AWS, GCP o persino su sistemi locali possono essere facilmente collegati a MLflow 3.0 per una completa osservabilità. Questa capacità di monitoraggio multi-piattaforma è fondamentale per le aziende che operano in ambienti ibridi o multi-cloud.
Inoltre, MLflow 3.0 include un registro per i prompt, che consente agli sviluppatori di registrare, versionare, testare e distribuire diversi prompt LLM per i loro sistemi di agenti. Questa funzionalità è essenziale per la gestione e l'ottimizzazione iterativa delle interazioni con i modelli di linguaggio di grandi dimensioni.
Funzioni AI: potenza multimodale e performance senza precedenti
Le Funzioni AI di Databricks permettono agli utenti di accedere facilmente alla potenza dell'IA generativa direttamente da SQL. Quest'anno, sono state introdotte miglioramenti drastici nelle prestazioni e capacità multimodali ampliate.
Le Funzioni AI sono ora fino a 3 volte più veloci e 4 volte più economiche rispetto ad altri fornitori su carichi di lavoro su larga scala. Questo permette di elaborare trasformazioni di dati massicce con una velocità senza precedenti, riducendo significativamente i costi operativi.
Oltre alle prestazioni, le Funzioni AI ora supportano capacità multimodali, consentendo di lavorare senza problemi con testo, immagini e altri tipi di dati. Nuove funzioni come ai_parse_document facilitano l'estrazione di informazioni strutturate da documenti complessi, sbloccando approfondimenti da contenuti aziendali che in precedenza erano difficili da elaborare.
Mosaic AI Vector Search: ricerca vettoriale scalabile ed economica
Mosaic AI Vector Search è la spina dorsale di molti sistemi di recupero, in particolare degli agenti RAG (Retrieval Augmented Generation), ed è uno dei prodotti a più rapida crescita di Databricks. La sua infrastruttura è stata completamente riscritta da zero, adottando i principi di separazione del calcolo e dello storage.
La nuova Ricerca Vettoriale Ottimizzata per lo Storage è in grado di scalare fino a miliardi di vettori, offrendo un costo 7 volte inferiore rispetto alle soluzioni precedenti. Questo progresso rende economicamente fattibile la costruzione di sofisticate applicazioni RAG e sistemi di ricerca semantica sull'intera base di dati aziendale. Che si tratti di alimentare chatbot per il servizio clienti o di abilitare la scoperta avanzata di documenti, è ora possibile scalare senza i costi proibitivi del passato. Ulteriori dettagli tecnici e benchmark di performance sono disponibili in una pubblicazione di blog dedicata.
AI Runtime: l'IA su GPU serverless
Databricks ha annunciato una significativa innovazione nel calcolo serverless con l'introduzione del supporto GPU sulla sua piattaforma. Le carichi di lavoro di IA basate su GPU sono ora più accessibili che mai, grazie a un servizio completamente gestito che elimina la complessità della gestione delle GPU.
Che si tratti di addestrare modelli, eseguire inferenze o elaborare trasformazioni di dati su larga scala, AI Runtime fornisce le prestazioni necessarie senza il sovraccarico operativo. Completamente integrato nella piattaforma Databricks, AI Runtime consente l'accesso on-demand a GPU A10g (oggi in beta) e H100s (prossimamente), senza essere vincolati a prenotazioni a lungo termine. È possibile eseguire notebook su GPU serverless e inviarli come job, con la piena governance di Unity Catalog.
Servizio di modelli e LLM: performance e efficienza ottimizzate
Infrastruttura di servizio modelli potenziata
Le attuali applicazioni di IA aziendali richiedono prestazioni più elevate e latenze più basse per essere pronte per la produzione. L'infrastruttura di Servizio di Modelli migliorata di Databricks supporta ora oltre 250.000 query al secondo (QPS). Questo consente di portare online in tempo reale i carichi di lavoro di machine learning su Databricks, delegando all'azienda la gestione dell'infrastruttura e delle sfide di affidabilità, così da permettere agli sviluppatori di concentrarsi sullo sviluppo del modello di IA.
Servizio LLM avanzato
Con il servizio LLM, Databricks ha lanciato un nuovo motore di inferenza proprietario interno, disponibile in tutte le regioni. Questo motore di inferenza incorpora molte delle innovazioni private di Databricks e kernel personalizzati per accelerare l'inferenza di Meta Llama e altri LLM open-source. Su carichi di lavoro comuni, il motore di inferenza di Databricks è fino a 1,5 volte più veloce rispetto a motori open-source configurati correttamente come vLLM-v1. Insieme al resto dell'infrastruttura di servizio LLM, queste innovazioni significano che servire LLM su Databricks è più facile, più veloce e spesso con un costo totale di proprietà (TCO) inferiore rispetto alle soluzioni di servizio fai-da-te. Dai chatbot ai motori di raccomandazione, i servizi di IA possono ora scalare per gestire anche i carichi di lavoro aziendali più esigenti.
Integrazione del Protocollo di Contesto Modello (MCP) di Anthropic
Il Protocollo di Contesto Modello (MCP) di Anthropic è un protocollo popolare per fornire strumenti e conoscenza ai modelli di linguaggio di grandi dimensioni. Databricks ha ora integrato MCP direttamente nella sua piattaforma. I server MCP possono essere ospitati con Databricks Apps, fornendo un modo fluido per implementare e gestire servizi compatibili con MCP senza gestione aggiuntiva dell'infrastruttura.
È possibile interagire e testare modelli abilitati per MCP direttamente nell'ambiente Playground di Databricks, facilitando la sperimentazione con diverse configurazioni e capacità dei modelli. Inoltre, è ora possibile connettere gli agenti per sfruttare Databricks con il lancio di server MCP ospitati su Databricks per le funzioni di Unity Catalog, Genie e Vector Search. Per maggiori informazioni, è disponibile la documentazione ufficiale.
Agent Bricks AI Gateway: governance centralizzata per l'IA
Agent Bricks AI Gateway è ora generalmente disponibile. Questo punto di ingresso unificato per tutti i servizi di IA fornisce governance centralizzata, registrazione dell'utilizzo e controllo su tutta la gamma di applicazioni di IA. Sono state aggiunte una serie di nuove capacità, dalla possibilità di effettuare il fallback automatico tra diversi fornitori alla protezione delle PII (informazioni personali identificabili) e alla sicurezza.
Con AI Gateway, è possibile implementare politiche di limitazione della velocità, tracciare l'utilizzo e applicare misure di sicurezza sui carichi di lavoro di IA, sia che vengano eseguiti su Databricks che tramite servizi esterni. Questo assicura che le operazioni di IA siano sempre conformi e sicure.
Questi annunci rappresentano il continuo impegno di Databricks nel rendere l'IA aziendale più accessibile, efficiente e conveniente. Ogni innovazione è costruita sulla solida base della piattaforma di intelligenza dei dati, garantendo che le applicazioni di IA possano sfruttare tutta la potenza dei dati aziendali mantenendo gli standard di governance e sicurezza richiesti da ogni organizzazione.
Pronti a esplorare queste nuove capacità? Iniziate con il livello gratuito di Databricks o contattate il team di vendita per maggiori informazioni.