Las TPU Ironwood, séptima generación de unidades de procesamiento tensorial desarrolladas por Google, ofrecen un rendimiento máximo diez veces superior al de la versión v5p y una eficiencia por chip cuatro veces mayor respecto a la TPU v6e (Trillium). Estas mejoras buscan atender la creciente demanda de procesos de inferencia y modelos agénticos, que requieren alta velocidad, baja latencia y consumo energético optimizado.
Compañías como Anthropic, Lightricks y Essential AI ya están integrando Ironwood en sus sistemas. Anthropic, desarrolladora del modelo Claude, planea escalar hasta un millón de TPU para sostener el crecimiento de su base de usuarios. Según su director de infraestructura, James Bradbury, las nuevas unidades permitirán “mantener la velocidad y fiabilidad que los clientes esperan”.
La tecnología Ironwood forma parte del sistema AI Hypercomputer de Google Cloud, que combina hardware, software, red y almacenamiento para maximizar el rendimiento. Este sistema permite conectar hasta 9.216 chips en un solo superpod, alcanzando 1,77 petabytes de memoria de alto ancho de banda. Además, integra una red óptica de conmutación dinámica (OCS) capaz de reconfigurar rutas en tiempo real en caso de interrupciones, garantizando la continuidad de los servicios.
Axion: eficiencia para la computación general
Junto con Ironwood, Google presentó las nuevas instancias Axion, su línea de CPU personalizadas basadas en arquitectura Arm Neoverse®. Estas máquinas virtuales están diseñadas para optimizar costes y rendimiento en cargas de trabajo comunes, desde bases de datos y análisis hasta servicios web y entornos de desarrollo.
Entre las novedades destaca la serie N4A, en versión preliminar, que ofrece una relación precio-rendimiento hasta dos veces mejor que las máquinas basadas en x86. También se incorpora C4A metal, el primer servidor físico de Google con arquitectura Arm, orientado a entornos especializados como la automoción, las pruebas masivas o los sistemas de simulación compleja.
Empresas como Vimeo, ZoomInfo y Rise han reportado mejoras notables tras probar Axion. Vimeo registró un aumento del 30% en rendimiento en su plataforma de transcodificación de vídeo; ZoomInfo observó un incremento del 60% en la eficiencia precio-rendimiento en sus procesos de inteligencia de datos; y Rise redujo su consumo de CPU en un 15%, optimizando costes sin alterar su estructura operativa.
Un sistema integrado para la inteligencia artificial moderna
Google Cloud subraya que la clave de su estrategia está en el diseño conjunto de hardware y software, lo que permite maximizar la capacidad de procesamiento y la fiabilidad de sus infraestructuras. Herramientas como Google Kubernetes Engine incorporan ahora nuevas funciones de Cluster Director, que mejoran la gestión de recursos y la resistencia de los clústeres.
Además, la compañía ha ampliado el soporte de vLLM para TPU, facilitando que los desarrolladores alternen entre GPU y TPU con ajustes mínimos. Según Google, esta integración puede reducir los costes de servicio hasta un 30% y la latencia del primer token hasta en un 96%.
Con la llegada de Ironwood y Axion, Google refuerza su posición en la infraestructura para inteligencia artificial. Su enfoque apunta a ofrecer una plataforma escalable, eficiente y adaptable a la evolución constante de los modelos de IA. A partir de hoy, las organizaciones interesadas pueden inscribirse para probar las nuevas TPU Ironwood y las instancias Axion N4A y C4A metal, disponibles en versión preliminar.






