La evolución hacia la agentic AI está transformando la arquitectura de los centros de datos. Ya no se trata solo de modelos que generan una respuesta tras una única consulta, sino de sistemas capaces de encadenar pasos, acceder a herramientas, consultar memorias, llamar a APIs y tomar decisiones con mínima intervención humana. Ese salto multiplica la complejidad de la inferencia y, con ella, la relevancia de las CPU.
Aunque las GPU siguen siendo esenciales para el cálculo intensivo y paralelo, las CPU asumen cada vez más funciones de coordinación. Son las encargadas de programar tareas, preparar datos, gestionar memoria, controlar los flujos de trabajo y dirigir el movimiento de información dentro del sistema. Dicho de otro modo: sin una CPU capaz de orquestar el conjunto, el potencial de las GPU queda limitado.
Más que apoyo: una pieza central en la inferencia
En las fases de entrenamiento, el protagonismo sigue recayendo principalmente sobre las GPU, mientras la CPU alimenta el sistema y gestiona el entorno operativo. Pero en la inferencia avanzada, y especialmente en la IA agéntica, la situación cambia. La CPU ya no solo organiza: también interpreta resultados, decide acciones posteriores y determina si es necesario reenviar el problema a las GPU con nuevas instrucciones.
Ese nuevo papel eleva la exigencia sobre el procesador. En entornos de IA moderna, la CPU debe mantener ocupadas a las GPU mientras administra llamadas a herramientas externas, tráfico de red, consultas a lagos de datos y aplicaciones empresariales. De su eficiencia depende no solo el rendimiento general, sino también variables estratégicas como el consumo energético y el coste total de propiedad.
AMD quiere capitalizar ese giro
AMD sostiene que esta nueva etapa favorece una infraestructura equilibrada basada en sus procesadores AMD EPYC, sus GPU AMD Instinct, las tecnologías de red AMD Pensando y la pila de software ROCm. La empresa defiende que el rendimiento en IA ya no puede medirse solo por chip, sino a nivel de sistema completo.
La compañía subraya además el valor del ecosistema x86, ampliamente implantado en cargas empresariales tanto en entornos locales como en la nube. Frente a otras arquitecturas, AMD plantea que esta compatibilidad reduce la necesidad de rehacer código o mantener desarrollos paralelos. A ello suma su apuesta por el diseño chiplet, que permite ajustar cómputo, ancho de banda de memoria, entrada/salida y consumo según cada carga de trabajo.
Con la vista puesta en la siguiente generación, AMD ya prepara sus futuros EPYC, conocidos con el nombre en clave Venice, para dar soporte a la arquitectura de IA a escala de rack Helios. El mensaje de fondo es claro: en la era de la IA agéntica, las GPU seguirán haciendo el trabajo pesado, pero serán las CPU las que decidan cómo, cuándo y con qué eficiencia se juega la partida.







