Home Fondamenti Token Modelli AI Deep Learning Tecniche RAG RAG Avanzato MCP Orchestrazione Prompt Engineering Usare l'AI ChipsBot News

Meta e Amazon: Accordo Miliardario per i Chip Graviton

AI Italia Blog 24 aprile 2026

In un momento di intensa competizione globale per la capacità computazionale, Meta Platforms e Amazon hanno annunciato la sigla di un accordo pluriennale di portata eccezionale, il cui valore si attesta su diversi miliardi di dollari. L'intesa prevede che la società guidata da Mark Zuckerberg utilizzi i chip Graviton sviluppati da Amazon Web Services (AWS) per alimentare una parte significativa dei propri progetti di intelligenza artificiale. Questo accordo non solo evidenzia l'importanza strategica delle infrastrutture nel panorama dell'AI moderna, ma segnala anche un cambiamento di prospettiva nel dibattito tecnologico, riposizionando le CPU al centro dell'attenzione insieme alle GPU nello sviluppo di agenti AI e modelli linguistici avanzati.

Le condizioni economiche dettagliate dell'accordo non sono state rese pubbliche, ma Nafea Bshara, vicepresidente di Amazon e ingegnere distintivo, ha precisato che la durata dell'intesa sarà compresa tra tre e cinque anni. Secondo quanto dichiarato, Meta si impegnerà a utilizzare decine di milioni di core CPU forniti da Amazon, una mossa che sottolinea la vastità e l'ambizione dei progetti AI in corso presso la società.

La corsa globale alla capacità computazionale e la diversificazione di Meta

L'accordo tra Meta e Amazon si inserisce in un contesto globale in cui le più grandi aziende tecnologiche e i laboratori di ricerca stanno intensificando la competizione per assicurarsi capacità computazionale su larga scala. La domanda di risorse di calcolo è in costante crescita, spinta dallo sviluppo di modelli di intelligenza artificiale sempre più complessi e dall'esigenza di supportare nuove applicazioni. Questa intesa rappresenta, di fatto, una delle collaborazioni più rilevanti nel settore delle infrastrutture per l'AI, evidenziando come la disponibilità di hardware specializzato sia diventata un fattore critico per l'innovazione.

Parallelamente a questo accordo con AWS, Meta ha perseguito una strategia di diversificazione delle fonti di approvvigionamento per i propri chip. Nel corso del 2025, la società ha annunciato diverse partnership con i principali produttori di semiconduttori a livello mondiale, tra cui Nvidia, Advanced Micro Devices (AMD) e Arm Holdings. L'obiettivo primario di questa strategia è duplice: ridurre la dipendenza da singoli fornitori e ottimizzare le prestazioni complessive dei sistemi AI attraverso l'utilizzo di architetture multiple.

La complessità delle esigenze AI e il ritorno delle CPU

Secondo gli analisti di settore, la scelta di adottare più architetture di chip, tra cui sia GPU che CPU, riflette la crescente complessità delle esigenze computazionali legate all'intelligenza artificiale. Nessun tipo di chip è in grado, da solo, di coprire tutte le funzioni richieste dai sistemi AI avanzati. Per diversi anni, il dibattito sull'intelligenza artificiale si è concentrato quasi esclusivamente sulle GPU (Graphics Processing Units), processori grafici considerati fondamentali per l'addestramento intensivo dei modelli. L'accordo tra Meta e AWS, tuttavia, segnala un cambio di prospettiva significativo.

Le CPU (Central Processing Units), come quelle della famiglia Graviton, tornano a occupare un ruolo centrale in questo ecosistema. Il chip scelto da Meta, il Graviton5, è prodotto con tecnologia a 3 nanometri e viene presentato da Amazon come una soluzione estremamente competitiva in termini di rapporto tra costi e prestazioni. Le CPU svolgono funzioni complementari e insostituibili rispetto alle GPU. Esse gestiscono applicazioni, coordinano i flussi di dati e supportano tutte quelle attività che non richiedono un'elaborazione parallela intensiva, ma piuttosto una gestione efficiente delle operazioni sequenziali e logiche.

In particolare, le CPU si rivelano estremamente rilevanti nella fase cosiddetta di "post-training" dei modelli linguistici, un momento cruciale in cui i sistemi vengono ottimizzati e affinati per obiettivi specifici e per compiti di inferenza. Questa fase richiede spesso un'elevata flessibilità e capacità di gestione di carichi di lavoro diversi, aspetti in cui le CPU eccellono.

Gli agenti AI e gli investimenti di Meta

La crescita esponenziale degli agenti AI rappresenta uno dei fattori principali dietro l'aumento della domanda di CPU. Questi sistemi, progettati per eseguire compiti complessi in modo autonomo, richiedono una combinazione variegata di capacità computazionali. Meta ha dichiarato apertamente di voler investire in modo significativo in questo segmento emergente dell'intelligenza artificiale. A dicembre 2025, la società ha annunciato l'acquisizione della startup Manus per oltre 2 miliardi di dollari. Manus è specializzata nello sviluppo di agenti in grado di svolgere attività articolate, che vanno dalla gestione di processi aziendali alla ricerca avanzata, dimostrando la visione di Meta per un futuro in cui l'AI automatizzata sarà sempre più presente.

Secondo Brendan Burke, direttore della ricerca presso Futurum Group, la domanda di CPU da parte dei principali laboratori di AI non mostra limiti nel breve periodo. Questo scenario rende l'integrazione tra CPU e GPU un elemento chiave e imprescindibile per sostenere lo sviluppo tecnologico e l'innovazione continua nel campo dell'intelligenza artificiale.

Una partnership di lunga data e il valore dimostrativo per Amazon

La collaborazione tra Meta e AWS non è una novità, bensì il culmine di una relazione strategica di lunga data. Secondo quanto affermato da Amazon, le due aziende lavorano insieme dal 2016, inizialmente su servizi cloud di base e infrastrutture standard. Nel tempo, la partnership si è progressivamente estesa, includendo l'utilizzo della piattaforma Bedrock e il noleggio di cluster GPU, segno di una fiducia reciproca e di una visione condivisa.

Il nuovo accordo, tuttavia, rappresenta un salto di scala senza precedenti. Con l'utilizzo di decine di milioni di core Graviton, Meta entrerà tra i cinque maggiori clienti dei chip Graviton di AWS, consolidando ulteriormente il ruolo di Amazon Web Services come fornitore di infrastrutture primario per l'intelligenza artificiale a livello globale. Per Amazon, questa intesa assume anche un significativo valore dimostrativo. Essa attesta che i chip sviluppati internamente, come i Graviton, possono competere efficacemente con le soluzioni offerte da altri produttori leader di mercato e trovare applicazione nei progetti più avanzati e strategicamente importanti del settore tecnologico.

Integrazione verticale e impatto sulla filiera dei semiconduttori

L'accordo tra Meta e Amazon evidenzia una tendenza più ampia e sempre più marcata nel settore: la crescente integrazione verticale nelle tecnologie digitali. Le grandi aziende tecnologiche non si limitano più a utilizzare esclusivamente hardware di terze parti, ma investono direttamente nello sviluppo o nella personalizzazione delle infrastrutture sottostanti. Amazon, attraverso la sua divisione AWS, ha costruito una linea di chip proprietari con Annapurna Labs, acquisita nel 2015. Meta, pur non producendo direttamente semiconduttori su larga scala, sta diversificando attivamente le proprie fonti di approvvigionamento per ottimizzare costi e prestazioni, perseguendo un approccio simile ma con modalità differenti.

Questa dinamica ha effetti profondi sull'intera filiera dei semiconduttori. Aziende come Intel, storicamente specializzate in CPU, possono beneficiare del rinnovato interesse verso questo tipo di processori, dopo anni in cui l'attenzione e gli investimenti erano stati dominati quasi esclusivamente dalle GPU. La riequilibrio tra i due tipi di chip promette di stimolare l'innovazione e la competitività in tutto il settore.

Sviluppi paralleli: Ristrutturazione e nuove release AI

Parallelamente agli ingenti investimenti tecnologici nell'intelligenza artificiale, Meta ha anche annunciato una significativa riduzione del personale. La società prevede di licenziare circa il 10% dei dipendenti, pari a circa 8.000 persone, nel maggio 2026. Questa decisione è stata comunicata insieme ai piani di investimento nell'intelligenza artificiale e si inserisce in un obiettivo dichiarato di semplificare la struttura operativa e liberare risorse finanziarie da destinare a progetti ad alta intensità di capitale, come lo sviluppo dell'AI.

Inoltre, all'inizio di aprile, Meta ha presentato Muse Spark, il primo nuovo modello AI dopo un anno, indicando che ulteriori rilasci sono previsti nei prossimi mesi. Anche Amazon, dal canto suo, sta aumentando gli investimenti nel settore. Pochi giorni prima dell'annuncio dell'accordo con Meta, il gruppo ha comunicato un investimento aggiuntivo di 4 miliardi di dollari in Anthropic. Questa intesa prevede, tra le altre cose, l'utilizzo di decine di milioni di core Graviton anche da parte della società di AI Anthropic, rafforzando ulteriormente la posizione di AWS come piattaforma di riferimento per lo sviluppo e l'esecuzione di modelli avanzati.

Logica economica e tecnica: Ottimizzazione e riduzione dei rischi

La scelta di Meta di adottare i chip Graviton risponde a una logica che è sia economica che tecnica. Il rapporto tra prezzo e prestazioni è diventato un fattore decisivo in un contesto in cui i costi associati allo sviluppo e all'implementazione dell'AI crescono a ritmi rapidi. L'addestramento e l'esecuzione dei modelli richiedono investimenti miliardari in hardware e infrastrutture, e ottimizzare queste spese rappresenta una priorità assoluta per le aziende che competono su scala globale.

Allo stesso tempo, diversificare le architetture tecnologiche consente di ridurre i rischi legati alla disponibilità di componenti. Questo è un tema emerso con forza negli ultimi anni a causa delle tensioni e delle interruzioni nella catena di approvvigionamento dei semiconduttori a livello mondiale. Avere più fornitori e tipologie di chip garantisce maggiore resilienza e continuità operativa.

Ridefinizione del mercato e competizione infrastrutturale

L'accordo tra Meta e Amazon contribuisce in modo significativo a ridefinire gli equilibri nel mercato dei semiconduttori per l'intelligenza artificiale. Le GPU rimangono centrali per molte applicazioni che richiedono elaborazione parallela massiva, ma le CPU stanno recuperando terreno e spazio grazie a nuovi casi d'uso, come appunto gli agenti AI e le fasi di ottimizzazione post-training. La combinazione strategica tra diverse tipologie di chip sta diventando il modello prevalente. Le aziende cercano soluzioni integrate in grado di gestire l'intero ciclo di vita dei sistemi AI, dall'addestramento iniziale alla distribuzione e all'inferenza.

Per i fornitori di infrastrutture cloud, questa evoluzione rappresenta un'opportunità unica per ampliare l'offerta di servizi e differenziarsi dalla concorrenza, fornendo soluzioni sempre più sofisticate e personalizzate. Per le aziende utilizzatrici, d'altra parte, implica scelte sempre più complesse e strategiche in termini di architettura tecnologica.

L'intelligenza artificiale si sta trasformando sempre più in una vera e propria competizione infrastrutturale. Non riguarda più solo algoritmi e modelli all'avanguardia, ma anche e soprattutto la capacità di costruire, gestire e scalare sistemi su larga scala. L'accordo tra Meta e Amazon mostra come le grandi aziende stiano consolidando alleanze strategiche fondamentali per sostenere questa sfida. La disponibilità di potenza di calcolo non è più solo un vantaggio, ma è diventata un fattore determinante e abilitante per l'innovazione.

Le decisioni prese oggi in materia di chip e infrastrutture avranno effetti di lungo periodo sull'equilibrio del settore tecnologico globale e sulla distribuzione del potere economico legato all'intelligenza artificiale, plasmando il futuro della tecnologia per i decenni a venire.

Leggi l'articolo originale →
← Torna alle news