La expansión de la inteligencia artificial, el auge de los centros de datos de alta densidad y las limitaciones en el acceso a la energía están forzando un cambio profundo en el modelo de infraestructura digital. Así lo recoge el informe Vertiv Frontiers, que analiza las fuerzas técnicas y operativas que ya están condicionando el diseño y la gestión de los centros de datos y que marcarán su evolución en los próximos años .
El documento identifica un punto de inflexión: el centro de datos deja de ser solo un contenedor tecnológico para convertirse en una unidad de computación integrada, donde energía, refrigeración y TI deben funcionar como un único sistema. Este enfoque responde a la presión de cargas de trabajo cada vez más intensivas, especialmente las vinculadas a IA y computación de alto rendimiento, que elevan de forma sostenida el consumo eléctrico y térmico.
La energía como cuello de botella
Uno de los ejes del informe es el suministro energético para la IA. La mayoría de los centros de datos actuales operan con esquemas híbridos de corriente alterna y continua, con varias etapas de conversión que introducen pérdidas y complejidad. El aumento de la densidad de los racks está tensionando este modelo.
Vertiv señala una transición progresiva hacia arquitecturas de corriente continua de mayor tensión, que permiten reducir la intensidad de corriente, simplificar el cableado y centralizar la conversión eléctrica. Este cambio no responde solo a criterios de eficiencia, sino a la necesidad de escalar instalaciones a niveles de gigavatios, algo cada vez más habitual en proyectos ligados a IA .
A este escenario se suma el impulso de la generación de energía in situ. La dificultad para garantizar suministro suficiente desde la red está llevando a operadores a invertir en microredes y producción propia, no solo como respaldo, sino como parte estructural de su estrategia energética.
La IA se desplaza y se fragmenta
El informe también apunta a una IA cada vez más distribuida. Aunque gran parte de la inversión inicial se ha concentrado en grandes centros para entrenar modelos de lenguaje, la fase de inferencia plantea nuevos requisitos. Sectores regulados, como el financiero o el sanitario, necesitan entornos privados o híbridos, cercanos al dato y con menor latencia.
Este cambio desplaza parte de la capacidad de computación hacia centros de datos corporativos y edge, lo que exige infraestructuras flexibles, capaces de adaptarse a distintos chips y arquitecturas. La diversificación del silicio se convierte así en otra variable crítica para el diseño futuro .
Gemelos digitales y refrigeración líquida
La complejidad creciente está acelerando el uso de gemelos digitales para planificar y operar centros de datos. Estas herramientas permiten simular instalaciones completas antes de su despliegue y reducir de forma significativa los tiempos de puesta en marcha. Según Vertiv, este enfoque puede recortar hasta un 50 % el tiempo necesario para que la capacidad de IA entre en producción.
En paralelo, la refrigeración líquida deja de ser una opción puntual para convertirse en un componente estructural. La densidad térmica de las GPUs obliga a abandonar esquemas tradicionales, y la propia IA empieza a utilizarse para optimizar y anticipar fallos en los sistemas de refrigeración, con impacto directo en la continuidad operativa .
El informe dibuja así un escenario en el que el valor periodístico no está en la tecnología aislada, sino en el cambio de modelo: el centro de datos pasa a ser una infraestructura crítica condicionada por la energía, la escala y la integración total de sistemas. Un giro que afecta tanto a operadores como a empresas y administraciones que dependen de la IA para su actividad.







