HomeModelli AIRAGMCP OrchestrazionePrompt Engineering Quando (Non) Usare AIChipsBotNews

Google I/O 2025: dalla ricerca alla realtà

blog.google 6 aprile 2026

Google I/O 2025: dalla ricerca alla realtà

20 maggio 2025

Tradizionalmente, nelle settimane che precedevano l'I/O, Google manteneva il silenzio sui nuovi prodotti, riservandoli per la presentazione ufficiale. Tuttavia, come sottolineato dal CEO di Google e Alphabet, Sundar Pichai, nell'era di Gemini, questa strategia è cambiata. Oggi, vediamo il lancio del nostro modello più intelligente un martedì di marzo o l'annuncio di un'innovazione incredibile come AlphaEvolve una settimana prima dell'I/O. L'obiettivo è chiaro: portare i migliori modelli nelle mani degli utenti il prima possibile, accelerando il rilascio di aggiornamenti a un ritmo senza precedenti.

L'inarrestabile progresso dei nostri modelli

La velocità con cui i modelli di intelligenza artificiale stanno avanzando è sbalorditiva. Dalla prima generazione del nostro modello Gemini Pro, i punteggi Elo – che misurano il progresso – sono aumentati di oltre 300 punti. Attualmente, Gemini 2.5 Pro domina la classifica LMArena in tutte le categorie, dimostrando prestazioni eccezionali e versatilità.

Infrastruttura di punta: Ironwood TPU

Questo progresso è reso possibile dalla nostra infrastruttura leader mondiale. Ironwood, la nostra settima generazione di TPU (Tensor Processing Unit), è la prima progettata specificamente per potenziare il ragionamento e i carichi di lavoro di intelligenza artificiale inferenziale su larga scala. Offre prestazioni 10 volte superiori rispetto alla generazione precedente e vanta un'incredibile capacità di elaborazione di 42,5 exaflop per pod. La robustezza della nostra infrastruttura, fino al livello delle TPU, ci consente di offrire modelli molto più veloci, anche mentre i prezzi dei modelli stanno diminuendo significativamente. Abbiamo dimostrato più e più volte di poter fornire i migliori modelli al prezzo più competitivo. Google non solo è leader in efficienza secondo la frontiera di Pareto, ma è riuscita a spostare la frontiera stessa.

Il mondo abbraccia l'IA

L'intelligenza artificiale è più accessibile a tutti, ovunque. E il mondo sta rispondendo adottando l'IA più velocemente che mai. Ecco alcuni importanti indicatori di questo progresso:

  • Solo un anno fa, elaboravamo 9,7 trilioni di token al mese nei nostri prodotti e API. Oggi ne elaboriamo oltre 480 trilioni, ovvero 50 volte di più.
  • Ci sono già più di 7 milioni di sviluppatori che creano con Gemini, cinque volte di più rispetto allo stesso periodo dell'anno scorso, e l'uso di Gemini in Vertex AI si è moltiplicato per 40.
  • L'applicazione Gemini conta oltre 400 milioni di utenti attivi al mese. Stiamo assistendo a una crescita e a un utilizzo significativi, soprattutto con i modelli della serie 2.5. Nel caso di Gemini 2.5 Pro nell'applicazione Gemini, l'utilizzo è aumentato del 45%.

Dalla ricerca alla realtà: progetti rivelati

Che cosa significa tutto questo progresso? Significa che ci troviamo in una nuova fase nell'evoluzione verso il paradigma dell'IA, e decenni di ricerca si stanno trasformando in realtà per persone, aziende e comunità di tutto il mondo.

Project Starline: oltre la videoconferenza con Google Beam

All'I/O di qualche anno fa, abbiamo presentato Project Starline, la nostra innovativa tecnologia video 3D. L'obiettivo era creare la sensazione di essere nella stessa stanza con qualcuno, anche se si era distanti. Abbiamo continuato a fare progressi tecnici e oggi siamo pronti a presentare il capitolo successivo: Google Beam, una nuova piattaforma di comunicazioni video basata sull'IA. Beam utilizza un nuovo modello video di ultima generazione per trasformare flussi video 2D in un'esperienza 3D realistica. A tal fine, impiega un set di sei telecamere e l'IA per combinare flussi video e renderizzarti su uno schermo di campo luminoso 3D. Ha un tracciamento della testa quasi perfetto, fino al millimetro, e a 60 fotogrammi al secondo, tutto in tempo reale. Il risultato è un'esperienza conversazionale molto più naturale e coinvolgente. In collaborazione con HP, i primi dispositivi Google Beam saranno disponibili per i primi clienti entro la fine di quest'anno.

Google Meet: abbattere le barriere linguistiche

Nel corso degli anni, abbiamo anche creato esperienze molto più coinvolgenti in Google Meet. Questo include la tecnologia che aiuta le persone a superare le barriere linguistiche con la traduzione automatica vocale, che sarà disponibile in Google Meet. Quasi in tempo reale, simula il timbro di voce e il tono dell'interlocutore, e persino le sue espressioni, avvicinandosi a una conversazione naturale e fluida in diverse lingue. La traduzione in inglese e spagnolo viene lanciata ora in versione beta per gli abbonati a Google AI Pro e Ultra, e altre lingue saranno aggiunte nelle prossime settimane. Questa funzione sarà disponibile per i clienti di Workspace Business per test iniziali quest'anno.

Project Astra: l'assistente AI universale diventa Gemini Live

Un altro interessante progetto di ricerca presentato per la prima volta all'I/O è Project Astra, che esplora le future possibilità di un assistente AI universale capace di comprendere il mondo che ti circonda. Gemini Live incorpora ora le funzioni di telecamera e condivisione schermo di Project Astra. Gli utenti lo stanno usando in modi interessanti, come per preparare colloqui o allenarsi per maratone. Questa funzione è già disponibile per tutti gli utenti Android e inizierà a essere implementata su iOS a partire da oggi. Incorporeremo anche funzioni come queste in prodotti come la Ricerca.

Project Mariner: verso il modo agente

Gli agenti sono sistemi che combinano l'intelligenza di modelli AI avanzati con l'accesso a strumenti, in modo da poter eseguire azioni per tuo conto e sotto il tuo controllo. Il nostro prototipo di ricerca iniziale, Project Mariner, è un primo passo verso lo sviluppo di agenti con la capacità di controllare un computer e poter interagire con il Web e fare cose per te. Lo abbiamo lanciato come prototipo di ricerca iniziale a dicembre, e da allora abbiamo fatto molti progressi con nuove funzioni multitasking e un metodo chiamato "insegna e ripeti", in cui puoi mostrare un compito una volta e l'agente impara a svolgere compiti simili in futuro. Offriremo agli sviluppatori le funzioni di utilizzo del computer di Project Mariner tramite l'API di Gemini. Tester di fiducia, come Automation Anywhere e UiPath, stanno già iniziando a creare con esso, e sarà disponibile per un pubblico più ampio quest'estate.

L'ecosistema degli agenti e la collaborazione

La gestione dei computer fa parte di un insieme più ampio di strumenti che dovremo sviluppare affinché l'ecosistema degli agenti possa prosperare. Per esempio, il nostro protocollo aperto Agent2Agent, che permette agli agenti di comunicare tra loro, o il Model Context Protocol (MCP) introdotto da Anthropic, che permette agli agenti di accedere ad altri servizi. Oggi siamo lieti di annunciare che la nostra API e il nostro SDK di Gemini sono compatibili con gli strumenti MCP.

Il modo agente nell'app Gemini e oltre

Stiamo anche iniziando a incorporare funzioni di agente in Chrome, nella Ricerca e nell'applicazione Gemini. Ad esempio, la nuova Modalità Agente dell'applicazione Gemini ti aiuterà a fare ancora di più. Se stai cercando un appartamento, ti aiuterà a trovare annunci che corrispondono ai tuoi criteri su siti come Zillow, regolare i filtri e utilizzare l'MCP per accedere agli annunci e persino fissare una visita. Prossimamente, gli abbonati potranno accedere a una versione sperimentale della Modalità Agente nell'applicazione Gemini. Ed è un'opzione ideale per aziende come Zillow, poiché consente loro di attrarre nuovi clienti e migliorare i tassi di conversione. Si tratta di un'area nuova ed emergente, e siamo entusiasti di esplorare come offrire i vantaggi degli agenti agli utenti e all'ecosistema in generale.

Il potere della personalizzazione

Il modo migliore per portare la ricerca nel mondo reale è renderla veramente utile per la tua realtà. È qui che la personalizzazione può essere fondamentale. Stiamo lavorando su questa idea con qualcosa che chiamiamo contesto personale. Con il tuo permesso, i modelli Gemini possono utilizzare il tuo contesto personale rilevante nelle tue applicazioni Google in modo privato, trasparente e totalmente sotto il tuo controllo. Questo significa che l'IA non solo sarà più intelligente, ma anche più pertinente e utile per le tue esigenze specifiche.

In sintesi, il Google I/O 2025 segna un punto di svolta, trasformando decenni di ricerca avanzata in innovazioni tangibili che stanno già plasmando il modo in cui interagiamo con la tecnologia e il mondo. Dalla comunicazione immersiva alle capacità degli agenti autonomi, Google sta rendendo l'intelligenza artificiale una forza trasformativa, accessibile e profondamente personale per tutti.

Leggi l'articolo originale →
← Torna alle news