NOTICIAS DATA CENTER

Akamai emprende un despliegue masivo de GPU Nvidia Blackwell



Dirección copiada

La firma apuesta por la inferencia frente al modelo centralizado de los grandes hiperescalares, desplegando potencia de cómputo en más de 4.000 nodos globales

Publicado el 6 mar 2026



Akamai emprende un despliegue masivo de GPU Nvidia Blackwell
Akamai emprende un despliegue masivo de GPU Nvidia Blackwell

Akamai Technologies ha dado un golpe sobre la mesa en la guerra de la infraestructura tecnológica al anunciar la integración de miles de unidades Nvidia Blackwell en su red mundial. Esta maniobra busca descentralizar la ejecución de modelos de IA, llevando la capacidad de respuesta directamente en el edge en lugar de depender de centros de datos lejanos.

El enfoque en el «Edge-Native»

A diferencia de gigantes como AWS o Azure, que dominan el entrenamiento de modelos masivos en instalaciones centralizadas, Akamai está diseñando una arquitectura pensada para la fase de inferencia (el momento en que la IA toma decisiones en tiempo real), a través de:

  • Capilaridad global: El despliegue abarca 4.000 ubicaciones, permitiendo que la IA esté cerca del usuario final.
  • Eficiencia: La compañía estima que este modelo reduce el tiempo de respuesta (latencia) hasta en un 60% y recorta los costes operativos de inferencia en un 86% comparado con la nube tradicional.

«No solo estamos ampliando capacidad; estamos llevando la IA del laboratorio a la vida cotidiana», afirmó Adam Karon, directivo de Akamai, subrayando que su objetivo es dar soporte a tecnologías críticas como la robótica quirúrgica y los sistemas de logística autónoma.

Un mercado en transformación: La batalla por el edge

El movimiento de Akamai se debe a que la competencia por el dominio de la inferencia es feroz:

  1. Cloudflare: Sigue apostando por su modelo serverless en más de 200 ciudades para ofrecer respuestas ultra rápidas sin necesidad de clústeres dedicados.
  2. Fastly: Mantiene su enfoque en la programabilidad en el edge para tareas específicas de CPU y GPU.

Sin embargo, la escala del despliegue de Akamai sugiere una apuesta por cargas de trabajo de misión crítica que requieren una potencia bruta superior a la de sus competidores directos.

¿El fin del modelo centralizado?

Para los analistas de la industria, este anuncio marca un punto de inflexión en 2026. Mientras que los años anteriores estuvieron definidos por el entrenamiento de modelos en «granjas» de servidores gigantes, el futuro inmediato pertenece a la ejecución ubicua. Con un mercado de inferencia que proyecta alcanzar los 255.000 millones de dólares para 2030, la carrera por conectar el cerebro de la IA con los dispositivos finales ya ha comenzado.

Artículos relacionados