Google prepara nuevos chips de IA con Marvell
Hay noticias de chips que parecen pensadas solo para inversores. Esta no. Parece ser que Google está en conversaciones con Marvell para desarrollar dos nuevos chips de IA: un procesador orientado a memoria que trabajaría junto a sus TPU actuales y un nuevo TPU enfocado a ejecutar modelos con más eficiencia. Todavía no hay confirmación oficial por parte de las compañías, pero el dato relevante no es solo el posible acuerdo. Lo importante es lo que revela: la carrera de la IA ya no va solo de modelos mejores, sino de quién consigue servirlos a gran escala, más rápido y más barato.
Qué se sabe exactamente del movimiento de Google y Marvell
Según Reuters, Google estaría negociando con Marvell el codesarrollo de dos chips. Uno sería una unidad centrada en memoria para complementar a sus Tensor Processing Units, y el otro un TPU nuevo específicamente pensado para ejecutar modelos de IA de forma más eficiente. El calendario también da pistas: Google aspiraría a cerrar el diseño del chip de memoria el año que viene y pasar después a fase de test. Es decir, no hablamos de un producto inminente, sino de una apuesta de arquitectura con efecto a medio plazo.
Esto encaja con la estrategia que Google ya viene siguiendo. La compañía lleva años construyendo su propia familia de TPU y, de hecho, firmó hace apenas unos días un acuerdo a largo plazo con Broadcom para desarrollar y suministrar futuras generaciones de esos chips hasta 2031. Google Cloud define las TPU como aceleradores diseñados a medida para entrenamiento e inferencia, y afirma además que ya impulsan Gemini y varias de sus aplicaciones de IA a gran escala. No es una prueba experimental: es una línea estratégica consolidada.
La batalla real está en la inferencia, no solo en el entrenamiento
Durante bastante tiempo, casi toda la conversación pública sobre IA giró alrededor del entrenamiento: cuántos parámetros, cuántos tokens, cuántos clusters. Pero el gran negocio empieza cuando el modelo ya está creado y hay que responder consultas, generar texto, resumir documentos o mover agentes de software millones de veces al día. Ahí entra la inferencia. Google la describe como la optimización del uso de modelos en producción para lograr menor latencia, más rendimiento y mejor coste. Traducido: que la IA responda rápido sin arruinar la cuenta de infraestructura.
Por eso esta noticia me parece especialmente interesante. Si el nuevo diseño se centra en memoria y en eficiencia de ejecución, Google no está buscando solo “más potencia”, sino mejor economía por consulta. Y eso importa muchísimo en buscadores, asistentes, publicidad, vídeo, productividad o agentes empresariales. Además, Google ya tiene una base técnica sobre la que apoyarse: sus TPU v6e están documentadas como sistemas optimizados para transformers, ajuste fino y serving, y la propia compañía ha trabajado en motores como JetStream para mejorar el rendimiento de inferencia de LLMs en Cloud TPU. La guerra, cada vez más, es por el coste útil del token servido.
Por qué Marvell no es un socio secundario
A primera vista, mucha gente asocia la guerra del chip con Nvidia, AMD, TSMC o Broadcom. Marvell suele aparecer menos en la conversación generalista, pero no es un actor menor. Su negocio de centros de datos está creciendo impulsado por la demanda de ASICs e interconexión para IA. Marvell está bien posicionada donde ahora se está ganando el partido, que es en silicio a medida y movimiento eficiente de datos dentro del centro de datos.
Además, la propia Marvell lleva tiempo empujando una narrativa muy concreta: la del chip personalizado optimizado para cargas concretas. Su oferta de custom ASICs abarca nodos avanzados, memorias embebidas, SerDes de alta velocidad, red, seguridad y almacenamiento. Y su arquitectura custom HBM promete más área disponible para cómputo, más capacidad de memoria y menos consumo en la interfaz de memoria. Aunque esas cifras son de producto y hay que leerlas con cautela, encajan perfectamente con el tipo de problema que Google quiere resolver: mover y servir modelos grandes sin disparar coste, consumo y complejidad.
El objetivo visible es Nvidia, pero el cambio va más allá
El titular fácil es “Google desafía a Nvidia”. Y sí, hay parte de eso. A comienzos de abril Google reforzó su alianza con Broadcom para seguir desarrollando chips propios como alternativa más rentable a las GPU de Nvidia. Meta también acaba de ampliar su acuerdo con Broadcom para varias generaciones de chips de IA, lo que confirma una tendencia muy clara: los gigantes tecnológicos quieren reducir dependencia de aceleradores generalistas cuando sus cargas son lo bastante grandes como para justificar silicio específico.
Pero el fondo del asunto es aún más interesante. Cuando Google mejora su hardware propio no solo abarata su IA interna; también fortalece Google Cloud como plataforma. Si consigue que sus TPU sean competitivas en rendimiento y coste para inferencia, puede atraer a clientes que no quieran depender exclusivamente del ecosistema Nvidia. Eso cambia precios, negociación, diseño de centros de datos y hasta la arquitectura del software de IA. Como ya comenté hace unos días en Tecnoic al hablar de ASML y TSMC, el cuello de botella real está cada vez más abajo: litografía, empaquetado, memoria, interconexión y energía. Esta noticia encaja exactamente en esa capa profunda de la pila.
Lo que esta noticia anticipa para 2026
La IA se está industrializando. Eso significa menos foco en demos espectaculares y más presión por optimizar coste por inferencia, uso de memoria, consumo eléctrico, ancho de banda y retorno de capital. En ese terreno, los chips a medida ganan peso. No porque vayan a sustituir de golpe a las GPU, sino porque las empresas con suficiente escala ya tienen incentivos muy claros para diseñar hardware adaptado a sus propias cargas.
También conviene mantener algo de prudencia. Hoy lo que existe es una información publicada por Reuters a partir de un reporte previo de The Information, y las compañías no la han confirmado públicamente. Pero incluso con esa cautela, el mensaje estratégico es bastante nítido: Google no quiere limitarse a comprar capacidad ajena; quiere decidir cada vez más cómo se construye la infraestructura que alimenta su IA.