Meta firma un accordo da miliardi di dollari per i chip Amazon Graviton5 mentre la domanda di calcolo AI supera il budget capex di 135 miliardi di dollari
Riepilogo: Meta ha firmato un accordo pluriennale da miliardi di dollari per distribuire decine di milioni di core CPU ARM Graviton5 di Amazon nei data center AWS per carichi di lavoro di intelligenza artificiale agentica. I chip sono processori di uso generale, non acceleratori AI, che gestiscono i compiti di inferenza e orchestrazione intensivi in CPU dietro il ragionamento in tempo reale e agenti a più passaggi. L'accordo è un pezzo di una campagna di approvvigionamento che supera i 200 miliardi di dollari tra Nvidia (50 miliardi di dollari), AMD (60 miliardi di dollari), CoreWeave (35 miliardi di dollari), Nebius (27 miliardi di dollari), Broadcom (silicon personalizzato MTIA fino al 2029) e ora Amazon, riflettendo la conclusione di Meta che la sua domanda di calcolo AI supera ciò che qualsiasi singola catena di approvvigionamento può fornire.
Meta ha firmato un accordo pluriennale da miliardi di dollari con Amazon Web Services per distribuire decine di milioni di core di processori Graviton5 per carichi di lavoro di intelligenza artificiale, hanno annunciato le aziende giovedì. I chip non sono acceleratori AI. Sono CPU ARM di uso generale, 192 core Neoverse V3 per chip, fabbricati con un processo a 3 nanometri, che operano nei data center AWS negli Stati Uniti. Meta non li sta acquistando. Sta affittando la capacità di calcolo. L'accordo è significativo non per ciò che fanno i chip, che è gestire i compiti di inferenza e orchestrazione intensivi in CPU dietro l'AI agentica, ma per chi li vende. Amazon è un concorrente diretto di Meta nella pubblicità, nel commercio e sempre più nell'AI. Meta sta pagando miliardi ad Amazon per l'infrastruttura perché la domanda di calcolo per eseguire agenti AI ha superato ciò che qualsiasi singola azienda può costruire da sola, anche una che spende tra 115 miliardi e 135 miliardi di dollari in spese in conto capitale quest'anno.
Il carico di lavoro
La distinzione tra addestramento e inferenza ha definito il mercato dei chip AI da quando è iniziato il boom dell'apprendimento profondo. L'addestramento, il processo computazionalmente intensivo di insegnare un modello, richiede GPU o acceleratori specializzati. L'inferenza, il processo di esecuzione di un modello addestrato per servire gli utenti, richiede un mix diverso di calcolo, e i carichi di lavoro AI agentici che Meta sta costruendo richiedono una capacità di CPU molto maggiore rispetto all'inferenza tradizionale. Il ragionamento in tempo reale, la generazione di codice, la ricerca e l'orchestrazione di compiti a più passaggi attraverso più modelli richiedono tutti una potenza di elaborazione generale massiccia. Santosh Janardhan, responsabile dell'infrastruttura di Meta, ha dichiarato che espandersi a Graviton "ci consente di eseguire i carichi di lavoro intensivi in CPU dietro l'AI agentica con le prestazioni e l'efficienza di cui abbiamo bisogno su larga scala." Nafea Bshara, vicepresidente di AWS e ingegnere di spicco, ha affermato che Meta ha scelto Graviton5 "per il rapporto qualità-prezzo" nonostante avesse "accesso a così tante opzioni dal lato dell'offerta."
L'accordo inizia con decine di milioni di core Graviton5, con flessibilità per espandere, e dura per almeno tre anni. La maggior parte della capacità sarà distribuita nei data center statunitensi. Meta aveva precedentemente utilizzato Graviton su piccola scala. Questo accordo trasforma quella relazione da un esperimento a una dipendenza infrastrutturale centrale. Il Graviton5, annunciato all'inizio di quest'anno, offre un aumento delle prestazioni del 25% rispetto al suo predecessore con una latenza inter-core inferiore del 33% nonostante il raddoppio del numero di core. È disponibile tramite istanze EC2 M9g in anteprima, con varianti C9g e R9g in arrivo nel 2026. Meta sta diventando effettivamente uno dei più grandi clienti singoli del programma di silicio personalizzato di Amazon, eseguendo carichi di lavoro nei data center di un concorrente perché l'alternativa, costruire una capacità equivalente internamente, richiederebbe più tempo di quanto la tabella di marcia dell'AI agentica consenta.
La corsa agli acquisti
L'accordo Graviton è una voce in una campagna di approvvigionamento che non ha precedenti nell'industria tecnologica. A febbraio 2026, Meta ha impegnato circa 50 miliardi di dollari con Nvidia per milioni di GPU Blackwell e Rubin, CPU Grace e Vera, e attrezzature di rete Spectrum-X. Nello stesso mese, ha firmato un accordo di circa 60 miliardi di dollari con AMD per sei gigawatt di GPU personalizzate Instinct MI450 costruite sull'architettura CDNA 5 a 2nm, un accordo che include warrant di prestazione convertibili in circa il 10% del capitale di AMD. L'impegno di Meta di 35 miliardi di dollari per il cloud AI con CoreWeave copre capacità dedicate fino a dicembre 2032, con distribuzioni anticipate della piattaforma Vera Rubin di Nvidia per l'inferenza. Un accordo da 27 miliardi di dollari con Nebius aggiunge ulteriore infrastruttura AI. L'esteso accordo sui chip di Meta con Broadcom fino al 2029 copre diverse generazioni dei suoi processori MTIA personalizzati a 2nm, con oltre un gigawatt di capacità di calcolo iniziale. Ora arriva il contratto da miliardi di dollari per Graviton con Amazon. La spesa totale impegnata attraverso questi accordi supera i 200 miliardi di dollari, e nessuna di essa include i data center, l'infrastruttura energetica o l'ingegneria interna necessaria per assorbire l'hardware.
Meta ha lanciato quattro nuovi chip MTIA a marzo 2026, i MTIA 300, 400, 450 e 500, tutti costruiti sull'architettura RISC-V e fabbricati da TSMC in collaborazione con Broadcom. L'azienda può ora rilasciare nuovi design di chip ogni sei mesi o meno. Il MTIA 400 è il primo chip personalizzato che Meta descrive come avente prestazioni grezze competitive con i principali prodotti commerciali. I 450 e 500 mirano all'inferenza AI generativa per immagini e video. Eppure, anche con il proprio programma di silicio in accelerazione, Meta sta contemporaneamente firmando accordi con Nvidia, AMD, CoreWeave, Nebius, Broadcom e Amazon. L'implicazione è che le proiezioni interne di Meta per la domanda di calcolo AI sono così grandi che costruire tutto internamente non è una strategia praticabile, non perché la tecnologia manchi, ma perché la tempistica è troppo breve.
Il venditore
Il business dei chip personalizzati di Amazon potrebbe valere 50 miliardi di dollari, secondo la lettera agli azionisti di aprile 2026 del CEO Andy Jassy, che ha rivelato che i chip Graviton, Trainium e Nitro generano collettivamente più di 20 miliardi di dollari di entrate annualizzate in crescita a tassi a tre cifre. Jassy ha accennato al fatto che Amazon potrebbe iniziare a vendere rack di chip a terzi in futuro, notando che due grandi clienti hanno chiesto di acquistare tutta la capacità Graviton di Amazon nel 2026 e sono stati rifiutati per proteggere la disponibilità per altri clienti. L'accordo con Meta mantiene i chip all'interno dei data center AWS, rendendolo un contratto cloud piuttosto che una vendita di hardware, ma la scala dell'impegno suggerisce che il confine tra fornitore di cloud e fornitore di chip si sta dissolvendo.
I laboratori Annapurna di Amazon, acquisiti nel 2015, progettano tutte e tre le famiglie di chip. Trainium, l'acceleratore di addestramento e inferenza AI, ha attratto Anthropic, che ha distribuito oltre un milione di chip Trainium2 e ha impegnato 100 miliardi di dollari in spese AWS nel corso di un decennio. OpenAI ha assicurato due gigawatt di capacità Trainium come parte dell'investimento di 50 miliardi di dollari di Amazon. Apple sta testando Trainium per carichi di lavoro AI. Trainium3, generalmente disponibile all'inizio del 2026, è il primo chip AI a 3nm di AWS ed è quasi completamente sottoscritto. Trainium4, a circa 18 mesi dalla disponibilità generale, presenterà l'interoperabilità NVLink Fusion
Altri articoli
Meta firma un accordo da miliardi di dollari per i chip Amazon Graviton5 mentre la domanda di calcolo AI supera il budget capex di 135 miliardi di dollari
Meta distribuirà decine di milioni di core CPU Amazon Graviton5 nei data center AWS per l'IA agentica. L'accordo fa parte di una campagna di approvvigionamento di oltre 200 miliardi di dollari che coinvolge Nvidia, AMD, CoreWeave, Broadcom e ora un concorrente diretto.
