Google reúne una cadena de suministro de chips de cuatro socios con Broadcom, MediaTek y Marvell para desafiar a Nvidia en inferencia.
Resumen: Google está construyendo la cadena de suministro de chips personalizados más diversificada de la industria de la IA, con cuatro socios de diseño (Broadcom, MediaTek, Marvell, Intel) y una hoja de ruta que se extiende desde el TPU Ironwood, que ahora se envía en millones, hasta los chips TPU v8 en TSMC de 2 nm a finales de 2027. La estrategia, detallada antes de Google Cloud Next, divide explícitamente la próxima generación: el "Sunfish" de Broadcom para entrenamiento, el "Zebrafish" de MediaTek para inferencia a un costo 20-30% más bajo, con Marvell en conversaciones para agregar una unidad de procesamiento de memoria y un TPU adicional para inferencia, posicionando el silicio personalizado de Google como el desafío más directo a la dominación de Nvidia en la inferencia de IA.
Google está ensamblando la cadena de suministro de chips personalizados más diversificada en la industria de la IA, con cuatro socios de diseño, una relación de fabricación con TSMC y una hoja de ruta de productos que ahora se extiende desde los chips de inferencia que está enviando hoy hasta los procesadores de 2 nanómetros que espera desplegar a finales de 2027. La estrategia, detallada en un artículo de Bloomberg antes de Google Cloud Next esta semana, posiciona el programa de silicio de Google como el desafío más directo a la dominación de Nvidia en la inferencia de IA, la fase de computación donde los modelos sirven a los usuarios en lugar de aprender de los datos.
La pieza central es Ironwood, el TPU de séptima generación de Google y el primero diseñado específicamente para inferencia. Ofrece diez veces el rendimiento máximo del TPU v5p, ofrece 192 gigabytes de memoria HBM3E por chip con 7.2 terabytes por segundo de ancho de banda, y se escala a 9,216 chips refrigerados por líquido en un solo superpod produciendo 42.5 exaflops FP8. Ironwood ya está disponible en general para los clientes de Google Cloud. Google planea producir millones de unidades este año, y Anthropic se ha comprometido a hasta un millón de TPUs. Meta también tiene un acuerdo de alquiler.
El programa de chips de Google ahora involucra a cuatro socios de diseño distintos, cada uno manejando diferentes segmentos de la línea de productos.
Broadcom, que firmó un acuerdo a largo plazo el 6 de abril para suministrar TPUs y componentes de red hasta 2031, maneja las variantes de chips de alto rendimiento. También está diseñando el chip de entrenamiento TPU v8 de próxima generación, con nombre en clave "Sunfish", dirigido al nodo de proceso de 2 nanómetros de TSMC para finales de 2027. Broadcom controla más del 70% del mercado de aceleradores de IA personalizados y proyecta $100 mil millones en ingresos por chips de IA para 2027.
MediaTek está diseñando la variante de inferencia optimizada por costo del TPU v8, con nombre en clave "Zebrafish", también dirigido a TSMC de 2 nm a finales de 2027. La participación de MediaTek comenzó con los módulos de I/O y componentes periféricos en Ironwood, donde sus diseños funcionan entre un 20 y un 30% más baratos que las alternativas. La estrategia del TPU v8 divide explícitamente la línea de productos: Broadcom construye el chip de entrenamiento, MediaTek construye el chip de inferencia, y Google obtiene la ventaja de negociación que proviene de que cada socio sepa que el otro existe.
Marvell Technology, que está en conversaciones con Google para desarrollar una unidad de procesamiento de memoria y un nuevo TPU enfocado en la inferencia, se convertiría en el tercer socio de diseño si esas negociaciones producen un contrato. Google planea producir casi dos millones de unidades de las unidades de procesamiento de memoria, con la finalización del diseño esperada para el próximo año. El negocio de silicio personalizado de Marvell opera a un ritmo anual de $1.5 mil millones a través de 18 victorias de diseño de proveedores de nube, y Nvidia invirtió $2 mil millones en la compañía en marzo.
Intel entró en escena el 9 de abril con un acuerdo multianual para suministrar procesadores Xeon y unidades de procesamiento de infraestructura personalizadas para la infraestructura del centro de datos de IA de Google. El acuerdo cubre las capas de red y computación de propósito general que rodean los TPUs en lugar de los aceleradores de IA en sí.
TSMC fabrica todo el silicio personalizado de Google. La relación es estructural: cada chip que Google diseña, independientemente de qué socio lo diseñó, pasa por las fábricas de TSMC.
Por qué la inferencia cambia la economía
El cambio de entrenamiento a inferencia como el costo de computación de IA dominante es la premisa estratégica detrás de todo el programa de chips de Google. Entrenar un modelo de frontera es un evento singular e intensivo. La inferencia es continua y se escala con cada usuario, cada consulta y cada producto que incorpora IA. Google atiende miles de millones de consultas de búsqueda aumentadas por IA, conversaciones de Gemini y llamadas a la API de Cloud AI diariamente. A esa escala, el costo por inferencia determina la economía de todo el negocio de IA.
Las GPU de Nvidia siguen siendo dominantes para cargas de trabajo de entrenamiento, donde su programabilidad y el ecosistema de software CUDA crean costos de cambio que los chips personalizados no pueden replicar fácilmente. Pero las cargas de trabajo de inferencia son más predecibles, más repetitivas y más propensas al tipo de optimización de función fija en la que el silicio personalizado sobresale. Un chip de inferencia diseñado específicamente que cuesta menos por consulta que una GPU de Nvidia, incluso si no puede igualar la versatilidad de la GPU, gana en la métrica que importa a la escala de Google.
Por eso Google está invirtiendo en múltiples caminos de chips de inferencia simultáneamente. Ironwood atiende las cargas de trabajo de hoy. El Zebrafish de MediaTek apunta a la próxima generación a un costo más bajo. Los chips propuestos por Marvell agregarían otra opción más. La redundancia es deliberada: Google está construyendo opciones en una cadena de suministro donde la dependencia de cualquier socio único crea riesgo de precios, riesgo de capacidad y la vulnerabilidad estratégica de tener su infraestructura de IA controlada por la hoja de ruta de otra persona.
Los números detrás de la ambición
Se proyecta que los envíos totales esperados de TPU de Google alcanzarán los 4.3 millones de unidades en 2026, aumentando a más de 35 millones para 2028. El compromiso de Anthropic solo representa hasta un millón de esos chips, con acceso a aproximadamente 3.5 gigavatios de computación basada en TPU de próxima generación a partir de 2027. Los ingresos de IA estimados por Mizuho de Broadcom a partir de sus relaciones con Google y Anthropic son de $21 mil millones en 2026, aumentando a $42 mil millones en 2027.
El mercado de ASIC personalizados en general está creciendo más rápido que las GPU. TrendForce proyecta que las ventas de chips personalizados aumentarán un 45% en 2026, en comparación con un crecimiento del 16% en los envíos de GPU. Se espera que el mercado alcance los $118 mil millones para 2033. Google no es el único hiperescalador que construye silicio de inferencia personalizado: Amazon tiene Trainium e Inferentia, Microsoft tiene Maia, y Anthropic está explorando su propio programa de chips. Pero el enfoque de múltiples socios y múltiples generaciones de Google es el más ambicioso arquitectónicamente.
Qué observar en Cloud Next
Google Cloud Next se inaugura el miércoles en Las Vegas con discursos de Sundar Pichai y Thomas Kurian. Se espera que la conferencia muestre la arquitectura de TPU de próxima generación y la hoja de ruta de silicio personalizado que conecta Ironwood con la generación v8. El momento del artículo de Bloomberg, un día después de que The Information revelara las conversaciones con Marvell y dos días antes de Cloud Next, sugiere que Google está utilizando la conferencia para enmarcar su programa de chips como una estrategia coherente en lugar de una serie de asociaciones individuales.
El desafío que enfrenta Nvidia no es que ningún chip único de Google supere a sus GPU. Es que Google está construyendo un sistema en el que múltiples chips personalizados, cada uno optimizado para una carga de trabajo y un punto de costo específicos, reducen colectivamente la parte de la computación de IA de Google que se ejecuta en hardware de Nvidia. La respuesta de Nvidia ha sido integrarse en el ecosistema de chips personalizados en lugar de luchar contra él: la inversión de $2 mil millones en Marvell y el programa NVLink Fusion aseguran que Nvidia mantenga una posición en los racks donde sus GPU son complementadas o reemplazadas por ASICs.
Para Google, la apuesta es que controlar su propio silicio, a través de múltiples socios y múltiples generaciones, producirá una ventaja de costo en inferencia que se acumula con el tiempo. La escala del negocio de Nvidia significa que el incumbente no será desplazado rápidamente. Pero la economía de la inferencia favorece al silicio personalizado sobre las GPU de propósito general, y ninguna empresa tiene más volumen de inferencia que Google. La cadena de
Otros artículos
Google reúne una cadena de suministro de chips de cuatro socios con Broadcom, MediaTek y Marvell para desafiar a Nvidia en inferencia.
El programa de chips personalizados de Google abarca cuatro socios de diseño y una hoja de ruta de TPU v8 de doble vía en TSMC de 2 nm, posicionando su silicio de inferencia como el desafío más directo a Nvidia.
