Los centros de datos están experimentando a nivel global una expansión cada vez más significativa al convertirse en el elemento principal de la transformación digital de las organizaciones. En 2025, la evolución de los mismos está marcada por el crecimiento exponencial del tráfico de datos, la consolidación de arquitecturas multicloud, y la incorporación de la inteligencia artificial a todos los ámbitos, incluida la gestión de infraestructuras. De esta forma, se ha producido un incremento de la densidad de potencia por armarios rack, que junto a la necesidad de garantizar la disponibilidad continua de los servicios, obliga a los operadores de CPD a replantear el diseño y la operación de sus infraestructuras. Aspectos como la reducción de la latencia en cargas de trabajo críticas, y la disipación térmica en entornos de alta densidad están marcando la hoja de ruta del sector.
Fundamentos de la refrigeración en data centers
Los centros de datos albergan una gran cantidad de servidores y equipos de TI que generan una volumen significativo de calor. La eliminación de este calor es esencial para mantener los equipos operando a su temperatura ideal. Los componentes hardware están diseñados para funcionar dentro de unos rangos de temperatura y humedad concretos, de manera que sobrepasarlos puede suponer el daño de los equipos. Cerca del 50% de la energía utilizada en los centros de datos es destinada para garantizar una óptima refrigeración, mediante un sistema de supervisión que permite controlar y mantener la temperatura ideal, la humedad, el flujo de aire y otra serie de condiciones asociadas al coste energético y la vida útil de los equipos.
El calentamiento de los servidores es producido por el mayor rendimiento ofrecido por los chips que han estado aumentando tanto las unidades de procesamiento central CPU, como las de procesamiento gráfico GPU y NPU asociadas a la inteligencia artificial. Esta tendencia conlleva mayores cargas de trabajo que a su vez elevan las cargas térmicas de los centros de datos más allá de la capacidad soportada por las tecnologías típicas de refrigeración por aire.
Según palabras de Garcerán Rojas, Socio Fundador de PQC, “estamos concentrando una altísima potencia en espacios muy reducidos y la progresión es imparable”. Si no se gestiona adecuadamente, el calor conlleva fallos en los equipos, reducción en la vida útil de los componentes, tiempos de inactividad, consumo energético elevado o disminución del rendimiento de los servidores, afirma.
Los sistemas de ventilación y aire acondicionado controlan parámetros como la temperatura, la humedad, el flujo de aire y el filtrado. De esta forma, el sistema HVAC de un centro de datos se vuelve clave a la hora de mantener unas condiciones ambientales óptimas. Por su parte, el PUE (Power Usage Effectiveness) es otro indicador importante a la hora de medir la eficiencia energética en los data centers. Se trata de una métrica que permite evaluar el consumo energético de los sistemas de refrigeración de los data center.
Si se logra mejorar el sistema de climatización mediante free cooling, contenedores de pasillos, enfriadores por evaporación directa y otras tecnologías, se reduce el consumo energético total lo que hace que el PUE disminuya, indicando mayor eficiencia. Un PUE cercano a 1 significa una alta eficiencia, mientras que si supera el valor de 2 implica que el sistema de refrigeración es ineficiente o está mal dimensionado.

Métodos tradicionales de refrigeración
Las soluciones que han predominado durante años en la refrigeración de los centros de datos han sido los sistemas de Aire Acondicionado de Sala de Computadores (CERAC) y las Unidades de Manejo de Aire de Sala de Computadoras (CRAH). Estos métodos se basan en el uso de aire acondicionado para enfriar grandes volúmenes de aire que luego es bombeado a través de los racks de los servidores. Han sido eficientes con densidades de potencia pequeñas y medias de los rack, en torno a los 3 y 5 kW. En la medida que estos valores han aumentado, ha sido necesario aplicar nuevos enfoques en la refrigeración.
El sistema de pasillos fríos y calientes permite optimizar el flujo de aire asegurando que todos los equipos reciban aire fresco. La técnica funciona aislando los pasillos mediante la instalación de barreras. Con el paso de los años, ha perdido terreno ante la opción de enfriar directamente los equipos en lugar del espacio en el que se encuentran, que es mucho mayor.
Otra modalidad es el free cooling, un método que reduce la temperatura del aire en un CPD utilizando aire o agua refrigerados de forma natural en lugar de refrigeración mecánica. Al usar aire exterior, no hace falta enfriar el aire caliente. Destaca por su menor consumo de energía, lo que la convierte en una opción más ecológica que las anteriores.
El sistema de evaporación o humificadores son utilizados junto a free cooling para aumentar la capacidad de refrigeración con un efecto de enfriamiento evaporativo, o para proporcionar humidificación de alta carga y bajo coste al volumen de aire que fluye a través del sistema de ventilación del centro de datos.
Ante el elevado consumo de los recursos hídricos, la refrigeración adiabática es otra de las propuestas que se puso en marcha, permitiendo ahorros de agua considerables. Consiste en pasar de líquido a gas, de manera que el agua evaporada humidifica y enfría simultáneamente la corriente de aire unos cuantos grados.
Las nuevas densidades de potencia demandan diseños más modulares y versátiles. En altas densidades, es necesaria la refrigeración líquida
Tendencias modernas en refrigeración
La refrigeración líquida en data center ha emergido como una alternativa eficaz para gestionar las crecientes demandas térmicas de los centros de datos. Este método permite eliminar el calor que se encuentra más próximo a los servidores, reduciendo el uso de energía o las pérdidas que se producen en zonas menos clave. La ciencia ha demostrado que el agua y otros líquidos conductores son mucho más eficientes en la transferencia de calor que lo conseguido con sistemas de aire. Existen diversos tipos en función de las necesidades y configuraciones.
La refrigeración por inmersión consiste en sumergir componentes informáticos o servidores completos en un líquido conductor térmico, pero no eléctrico (refrigerante dieléctrico). Este método es altamente eficiente ya que elimina la necesidad de usar ventiladores de refrigeración en los servidores, reduciendo significativamente el consumo energético y permitiendo una mayor densidad de servidores en el mismo espacio.
En lo que a eficiencia se refiere, un paso por delante se encuentra la refrigeración directa al chip (D2C). El sistema utiliza un refrigerante líquido que es conducido a través de tubos directamente al chip del procesador (CPU, GPU, etc.), absorbiendo el calor y eliminándolo del chasis. Es una de las formas más efectivas de refrigeración, especialmente en centros con racks que superan los 30 o 50 kW en las que se busca maximizar la capacidad térmica por unidad de espacio. Es el caso de soluciones de Edge Computing con instalaciones compactas y limitaciones de refrigeración por aire.

Comparativa entre métodos tradicionales y modernos
La tendencia más destacada es la transición masiva hacia la refrigeración líquida. Con la explosión de la IA y sus procesadores de alta densidad, la refrigeración por aire no tiene la capacidad de enfriamiento necesaria. Estamos viendo una mayor adopción de sistemas de free cooling y enfriamiento evaporativo, que aprovechan las condiciones climáticas externas para reducir drásticamente el uso de compresores, minimizando el consumo de energía y el impacto ambiental.
La refrigeración líquida, ya sea a través de enfriamiento directo al chip, o por inmersión, permite disipar eficientemente el calor extremo que es generado. Estas soluciones son intrínsecamente más eficientes, ya que el agua es un conductor térmico superior al aire, lo que permite reducir el consumo energético de los sistemas de refrigeración y, por ende, el PUE general de los data center.
El uso de tecnologías de refrigeración líquida es más eficiente y ofrece una mayor flexibilidad y escalabilidad frente a los basados en aire, además de permitir una mayor densidad de procesamiento, optimizando el uso del espacio en los centros de datos. El hecho de utilizar menos ventiladores y componentes mecánicos se traduce en que las salas son más silenciosas y requieren de un menor mantenimiento. En este sentido, los sistemas de refrigeración por inmersión se llevan la palma.
Garcerán Rojas de PQC opina que “los métodos de refrigeración avanzados se hacen totalmente necesarios una vez superados los 40 kW por rack, ya que el resto de tecnologías se quedan cortas. De hecho, estamos viendo construcciones híbridas para que solo una parte de los servidores o racks utilicen el liquid cooling o la inmersión”. Garcerán apunta a que la velocidad de adopción de estas nuevas tecnologías será muy rápida, ya que el ritmo de crecimiento es tan grande que las cosas que hayas pensado antes, en tres semanas cambian notablemente. “Los diseños deben ser muy flexibles para no quedarse obsoletos” puntualiza.
Impacto ambiental y sostenibilidad
Teniendo en cuenta que la energía supone el 40% de los costes de explotación en los centros de datos, que son inversiones con una vida media de 20 años, y considerando los cambios tecnológicos que puede haber en el sector, el crecimiento de estas infraestructuras debe ir unido a unos ejes fundamentales, entre los que se encuentra la sostenibilidad, la eficiencia, la flexibilidad y la resiliencia.
Víctor Gago, Data Center & C&SP Sales Manager de Schneider Electric Iberia, destaca que la colaboración de la compañía con Nvidia está permitiendo co-desarrollar infraestructura de refrigeración líquida diseñada específicamente para centros de datos de IA. “En este marco, hemos presentado nuevos diseños de referencia completos, que incluyen sistemas de refrigeración líquida de alta eficiencia. Además, hemos ampliado de forma importante nuestro porfolio en CDU (Cold Distribution Units), convirtiéndonos en proveedor aprobado de sistemas de refrigeración líquida para la plataforma NVIDIA GB200 NVL72 y sus arquitecturas MGX y HGX” puntualiza.
El directivo señala además que “este tipo de innovación no es solo técnica, sino también estratégica, puesto que permite a nuestros clientes operar cargas intensivas como las de IA sin disparar su PUE, avanzar en sus objetivos de sostenibilidad y, además, asegurar una operación estable incluso ante retos térmicos extremos”. En resumen, la refrigeración líquida se convierte en un habilitador indispensable de la eficiencia energética y la resiliencia futura de los centros de datos.
Desde Vertiv, Mario Vasconcelos, Sales director Enterprise Accounts for Spain & Portugal destaca que otra tendencia clave es la gestión inteligente y la optimización basada en datos. “A través de soluciones de DCIM (Data Center Infrastructure Management) y software de gestión térmica avanzado, los operadores pueden monitorizar y ajustar dinámicamente los sistemas de refrigeración en tiempo real” señala el experto con el fin de hacerlos más eficientes.

Factores que determinan la elección del sistema
La refrigeración líquida ofrece soluciones innovadoras para los desafíos actuales y futuros. La clave está en planificar y diseñar los centros de datos con una visión a largo plazo, considerando tanto las necesidades inmediatas, como las tendencias emergentes en tecnología y sostenibilidad.
Sin embargo, la implementación de sistemas de refrigeración líquida avanzada requiere de una cuidadosa planificación. En primer lugar, es elemental evaluar la disponibilidad de agua refrigerada y la capacidad de distribución de potencia para soportar las nuevas cargas térmicas. Además, presentan un coste que supone una inversión inicial superior en infraestructura frente a los métodos más tradicionales. La complejidad en la instalación también es mayor y requiere de una planificación detallada por parte de personal altamente cualificado.
Pensando en ahorro de costes a la hora de elegir uno u otro sistema de refrigeración, Garcerán Rojas destaca que “por cada unidad que ahorramos en la parte de infraestructura, podemos ahorrar hasta un 40% en la parte de TI”. Y es que en la parte de TI es donde está concentrada la mayor posibilidad de crecimiento de eficiencia, porque es donde existe la mayor proporción de excedencia de energía. Señala además que primero hay que conseguir eficiencia energética y luego conseguir alcanzar un buen PUE. En la parte de electromecánica ahora se está trabajando mucho, además de la del software, viendo la forma de optimizar sobre cómo debe trabajar el hardware. “El objetivo clarísimo es afinar en la gestión del software para no dar vueltas una y otra vez a las mismas cosas”, concluye.
El futuro de la refrigeración en los data center
La refrigeración está en el epicentro de la transformación de los centros de datos, especialmente con la llegada masiva de cargas de trabajo de inteligencia artificial. Estamos asistiendo a una transición clara hacia soluciones de refrigeración líquida de última generación, que permiten disipar calor de forma más eficiente frente a la creciente densidad de potencia por rack.
No obstante, otro de los principales retos a los que se enfrentan los centros de datos del futuro es la superficie ocupada. La clave está en aumentar la capacidad de almacenamiento sin aumentar el tamaño de la infraestructura. Esto impulsa necesariamente al uso de diseños modulares y una infraestructura definida por software.
Mario Vasconcelos de Vertiv tiene claro que los centros de datos modulares y los prefabricados cada vez más van ganando terreno, permitiendo una implementación más rápida y eficiente de soluciones de refrigeración optimizadas, reduciendo el desperdicio y el tiempo de construcción. Vertiv ya lleva a cabo iniciativas como esta, la inversión se diversifica en innovaciones de este tipo para asegurar que los clientes puedan construir y operar data centers que sean potentes y eficientes.
Vertiv trabaja en soluciones que previenen los contratiempos, como es el caso de los sistemas de refrigeración de precisión como el Liebert HPC-S y Liebert PDX-PAM, diseñados ambos para operar con refrigerantes de bajo GWP, que ofrecen una alternativa más sostenible a los tradicionales. Además, para las aplicaciones de alta densidad que demandan refrigeración líquida, están desarrollando y desplegando soluciones como el Vertiv CoolChip CDU y sistemas de enfriamiento por inmersión. Iniciativas como las regulaciones F-Gas a nivel europeo están marcando el camino, estableciendo calendarios ambiciosos para la eliminación gradual de estos gases. Esto impulsa a la industria a adoptar rápidamente alternativas con GWP significativamente más bajos.
Por su parte, Schneider Electric recomienda diseñar con prioridad en la durabilidad, la capacidad de servicio y la modularidad, usando también materiales con menor huella de carbono, para que el centro construido hoy, siga siendo útil y eficiente a lo largo de los 10 o 20 años venideros.
La compañía afirma que muchas empresas están implementando programas de modernización de infraestructura; en lugar de esperar a agotar la vida de un data center y construir otro, se invierte en actualizar componentes críticos a intervalos programados, mejorando rendimiento y eficiencia sobre la marcha. Esta gestión activa del ciclo de vida requiere un cambio de mentalidad: pasar de una visión de proyecto finito “construir-usar-descartar”, a una de proceso continuo de mejora y mantenimiento. Los fabricantes y proveedores ofrecen hoy servicios integrales de ciclo de vida para acompañar a los operadores en ese proceso.
Por ejemplo, Schneider Electric cuenta con servicios de EcoConsult y EcoStruxure enfocados en optimizar el desempeño a largo plazo y extender la vida de activos, con análisis de datos que ayudan a predecir cuándo conviene reemplazar o reacondicionar cierto equipo antes de que falle. Estas estrategias buscan minimizar los residuos y el downtime, a la vez que se estira la utilidad de cada inversión. Una de las apuestas más destacadas es la solución EcoStruxure Pod para IA, una arquitectura modular y escalable pensada específicamente para acelerar el despliegue de centros de datos diseñados para IA. También disponen de racks de última generación optimizados para la plataforma NVIDIA GB200 NVL72, incorporando la arquitectura MGX y conectando las soluciones directamente con los ecosistemas tecnológicos más punteros del momento.
Como conclusión, el modelo actual de centros de datos ya no es suficiente para soportar las nuevas exigencias empresariales. Las nuevas densidades de potencia demandan diseños más modulares y versátiles. En altas densidades, es necesaria la refrigeración líquida, lo que implica una necesidad de mayor espacio en el rack para albergar los colectores de líquido de refrigeración, lo cual, se traduce a su vez en diseños bastante más complejos en los que, tanto proveedores, como ingenierías, juegan un papel destacado para su correcta implementación. La clave una vez más radica en el conocimiento avanzado y expertise de todas las partes implicadas.