Meta y AWS Graviton: por qué la IA agéntica también necesita CPU

Meta y AWS Graviton: por qué la IA agéntica también necesita CPU

Meta acaba de firmar un acuerdo con AWS para incorporar decenas de millones de núcleos Graviton a su infraestructura de inteligencia artificial. A primera vista puede parecer una noticia más sobre chips, cloud y grandes tecnológicas. Pero el fondo es bastante más interesante: la IA agéntica está cambiando el tipo de cómputo que necesitan las plataformas. Ya no basta con entrenar modelos enormes sobre GPU. Ahora hay que ejecutarlos, coordinarlos, conectarlos con herramientas, responder en tiempo real y hacerlo a escala masiva. Y ahí la CPU vuelve a tener mucho que decir.

La noticia: Meta compra capacidad de CPU a AWS

Meta afirma que el acuerdo permitirá sumar decenas de millones de núcleos AWS Graviton a su cartera de cómputo, hasta convertirla en uno de los mayores clientes mundiales de esta familia de procesadores. AWS, por su parte, lo presenta como un despliegue orientado a cargas de IA agéntica: razonamiento en tiempo real, generación de código, búsqueda y orquestación de tareas en varios pasos.  

La clave está en que hablamos de Graviton5, la nueva generación de procesadores propios de AWS basados en arquitectura Arm. No son GPU ni pretenden sustituirlas. Son CPU optimizadas para eficiencia, densidad y coste por operación. El acuerdo será plurianual y de valor multimillonario, aunque las compañías no han publicado cifras cerradas.  

Por qué la IA agéntica necesita algo más que GPU

Durante los últimos años hemos explicado la carrera de la IA casi siempre desde las GPU: NVIDIA, memoria HBM, entrenamiento de modelos fundacionales, centros de datos gigantescos. Esa parte sigue siendo esencial. Sin GPU no habría entrenamiento a gran escala de los modelos actuales. Pero cuando un modelo ya está desplegado y empieza a operar como agente, el patrón cambia.

Un agente no se limita a generar texto. Tiene que recibir una petición, dividirla en subtareas, consultar memoria, buscar información, llamar a APIs, validar resultados, ejecutar código o coordinarse con otros agentes. Muchas de esas operaciones no son puro cálculo matricial intensivo. Son trabajo de sistema: control, entrada y salida, coordinación, planificación, recuperación de contexto y ejecución distribuida.

Ahí la CPU vuelve al centro. No porque sea más “potente” que una GPU en IA, sino porque es más adecuada para muchas cargas que rodean al modelo. La IA moderna ya no es solo el modelo. Es todo el sistema que permite que ese modelo trabaje.

Meta diversifica para no depender de una sola arquitectura

Meta lleva tiempo construyendo una estrategia de infraestructura muy agresiva. Invierte en sus propios centros de datos, firma acuerdos con fabricantes de chips, trabaja con proveedores cloud y busca adaptar cada carga al hardware más eficiente. La propia compañía lo resume con una idea sencilla: ninguna arquitectura sirve de forma óptima para todos los trabajos.  

Ese punto es importante. Si una plataforma con miles de millones de usuarios quiere integrar asistentes, agentes y experiencias personalizadas en Facebook, Instagram, WhatsApp o sus herramientas para creadores, el coste unitario de cada interacción importa. Un céntimo de diferencia por consulta, multiplicado por miles de millones, se convierte en una decisión estratégica.

Por eso este acuerdo no es solo como una compra de chips. Es una señal de madurez. La IA a escala obliga a pensar como arquitecto: qué va en GPU, qué va en CPU, qué se ejecuta en hardware propio, qué se externaliza y cómo se controla el coste operativo.

AWS gana una batalla silenciosa en la infraestructura de IA

Para AWS, el anuncio tiene una lectura aún más clara: Graviton deja de ser “la CPU eficiente de Amazon” y pasa a ocupar un lugar visible en la conversación sobre IA. Amazon ya tenía Trainium para entrenamiento e inferencia de modelos, Inferentia para inferencia y Graviton como línea de CPU cloud. Pero la narrativa pública de la IA ha estado dominada por NVIDIA y, en menor medida, por TPU de Google y chips propios de Microsoft.

El acuerdo con Meta cambia el encuadre. AWS puede decir que una de las mayores plataformas sociales del mundo usará sus procesadores para cargas reales de IA agéntica. Eso tiene valor comercial, técnico y simbólico.

Además, refuerza una tendencia que veremos mucho en los próximos años: el cloud ya no compite solo por precio, regiones o servicios gestionados. Compite por silicio. Quien controle mejor el hardware podrá ofrecer mejor coste, mayor eficiencia energética y más capacidad de ajuste para cargas específicas. La nube se está verticalizando.

Qué significa esto para empresas y desarrolladores

Para una empresa española media, el acuerdo entre Meta y AWS puede parecer lejano. No lo es tanto. Lo que hoy hacen los gigantes suele acabar marcando el diseño de las plataformas que usamos después. Si los agentes se consolidan, muchas organizaciones tendrán que desplegar flujos de IA que no dependan únicamente de llamar a un modelo externo y esperar una respuesta.

Habrá que pensar en arquitectura: colas, bases vectoriales, cachés, APIs internas, permisos, trazabilidad, observabilidad y costes de inferencia. También en sostenibilidad. Ejecutar IA de forma masiva no puede consistir en lanzar todo contra el hardware más caro disponible. Hay que asignar cada carga al recurso adecuado.

Esta noticia encaja con otras piezas que venimos siguiendo en Tecnoic, desde la nube soberana europea hasta la carrera por nuevos chips de IA con Marvell. La IA deja de ser una función aislada y se convierte en una capa operativa que necesita red, cómputo, datos, seguridad y gobernanza.  

Conclusión: la infraestructura vuelve al primer plano

La noticia de Meta y AWS Graviton desmonta una idea demasiado simple: que la carrera de la IA es solo una carrera de modelos y GPU. La próxima fase será más compleja. Ganará quien combine bien modelos, chips, cloud, energía, software de orquestación y coste por interacción.

La IA agéntica no vive solo en el laboratorio. Vive en la infraestructura. Y ahí empieza una batalla menos visible, pero decisiva. ¿Creéis que la CPU va a recuperar protagonismo en la IA o seguirá siendo una pieza secundaria frente a las GPU?