OPINIÓN

Eficiencia y sostenibilidad en los data centers. Capítulo 2



Dirección copiada

No es que la parte de clima no sea un importante contribuyente al consumo global del centro, que lo es, sino que no se trata, ni mucho menos, del principal que reside, de lejos, en la parte de IT

Publicado el 3 jul 2024



Garcerán Rojas, PQC
Garcerán Rojas, PQC

Había dejado la entrega anterior en la paradoja que se da cuando se pone el foco de la eficiencia de un data center en la parte de clima. Un ejemplo de ello, y muy claro, lo tuvimos hace aproximadamente 10 años, cuando, en uno de los paneles de expertos que se organizó sobre el tema de eficiencia en la operación de un data center, la práctica totalidad del tiempo se dedicó a los sistemas de refrigeración y a las buenas prácticas en la gestión del aire en el interior de las salas. Resulta que sólo un par de meses después, en otro evento similar llevado a cabo en otro país, y con el mismo tema de fondo, a alguien se lo ocurrió preguntar, antes de nada, por la definición de eficiencia. Alguno de los presentes en la sala acertó a explicarla como el trabajo realizado por unidad de energía incidente y, entonces, el tema dio un giro completo y nos permitió abordar el problema desde una óptica bastante más real y productiva.

Pero parece que esa orientación no cambió en gran medida el rumbo de las cosas, ya que, transcurrido mucho tiempo desde aquellas fechas, en una de las últimas encuestas realizadas en el sector, a la pregunta de cuáles son los principales vectores para la sostenibilidad y aunque seguido de cerca por la producción de renovables, quien se llevó la palma fue, de nuevo, el sistema de clima. Como si el paso de todo este tiempo apenas hubiese servido para gran cosa.

El PUE… y las TI

Y no es que la parte de clima no sea un importante contribuyente al consumo global del centro, que lo es, sino que no se trata, ni mucho menos, del principal que reside, de lejos, en la parte de IT.

Para que quede claro el razonamiento, hagámonos la pregunta de cómo de eficiente es un data center que haya conseguido alcanzar ese utópico 1.0 como nivel de PUE. Una primera y rápida respuesta nos llevaría a considerar este centro como muy eficiente, algo que resulta completamente erróneo si en el balance no interviene, y de forma muy determinante, la eficiencia de la parte IT.

Por ello, antes de ponernos a desarrollar conceptos de eficiencia y sostenibilidad en nuestra parte de la “chapa y pintura”, abramos un prólogo sobre esa parte de IT que, aunque no nos corresponda directamente, sí que es el objeto en el que tenemos que enfocar nuestro trabajo y desvelos, ya que se trata del “producto final”.

Sin entrar en detalles técnicos reservados a los auténticos especialistas en esa materia y procurando no adoptar su argot, abriremos el melón con unas primeras consideraciones sobre por dónde establecer los objetivos.

Así, como integrantes básicos del concepto CADE (eficiencia media corporativa de data center), tendríamos los valores ITEE e ITEU (IEC-30134- partes 4 y 5) que tienen que ver, el primero de ellos, con la selección de los equipos y su capacidad para efectuar un mayor trabajo útil para la misma energía incidente (existen para ello valores de referencia como SERT y clasificaciones de producto como Energy Star), mientras que el segundo define el nivel de utilización que se está haciendo de la capacidad del equipo, algo así como el estado de carga al que se le tiene funcionando. En general, cuanto mayor el estado de carga mayor la cantidad de trabajo por unidad de energía, es decir, la eficiencia (hay publicaciones muy recientes que comparan el consumo de dos servidores trabajando al 20% con el de uno sólo trabajando al 40%. El resultado muestra un ahorro que se aproxima al 50%).

El sobreconsumo de un equipo trabajando a carga parcial ha dispuesto históricamente de un término de referencia denominado IoF (iddle over full) que es la proporción de consumo que tiene un equipo cuando no trabaja respecto de cuando lo hace a plena carga. En su día, llegó a adoptar valores tan elevados como un 70% que fue rápidamente reduciéndose, de forma que cada renovación de equipos disponía de un retorno de la inversión muy claro, solamente en materia de energía. Pero esa evolución a la baja tocó fondo en el entorno del 14% hace unos 7 años. Desde entonces, las nuevas arquitecturas necesarias para seguir creciendo en el número de transacciones por unidad de energía (dato que ya nadie discute que representa la auténtica eficiencia) nos han llevado a una situación donde el funcionamiento a carga parcial ha vuelto a empeorar, con lo que quienes realmente pueden aprovechar las mejoras en eficiencia de las nuevas generaciones de equipos son solamente aquellos que son capaces de establecer su funcionamiento habitual en altos regímenes de carga (hoy por hoy, si una renovación de equipos no lleva en paralelo un proceso de consolidación, no va a producir, necesariamente, una mejora energética).

A nivel internacional, uno diría que existe un cierto consenso en determinar que los ahorros potenciales derivados de una optimización en la gestión de cargas de trabajo se encuentran en el entorno de un 90%, algo que es perfectamente alcanzable pero que, antes, tendrá que derribar algunas barreras.

Entre otras, es ese viejo axioma que dice que la parte IT no se toca. O la de la costumbre de separar físicamente distintas aplicaciones con el objetivo de que un fallo en un punto determinado no afecte, de forma simultánea, a múltiples servicios, o la de una pretendida alteración de las condiciones de confidencialidad de datos por el hecho de compartir una misma ubicación física, etc.

No solo es el hardware: también el software

Todas estas consideraciones están referidas a términos asociados al hardware, pero hay un asunto que está siendo considerado como prioritario en los últimos tiempos y al que no se le ha prestado la necesaria atención en el pasado y que es la parte del software.

En realidad, el software no consume energía, sino que da las órdenes para que sea el hardware el que lo haga. Y si le dice que para llegar del punto A al B hay que dar la vuelta al mundo, pues ¡hala! A empezar a correr como Forrest Gump. Y esto que puede parecer una exageración, es la esencia de lo que están publicando actualmente los grandes expertos en la materia, algunos de los cuales han vuelto a sus inicios como programadores para verificar la diferencia entre un programa hecho expresamente para las necesidades reales de uso y los que se están utilizando a base de paquetes ya existentes que contienen millones y millones de líneas de código. Los resultados son de tal magnitud que estos expertos están proponiendo un objetivo de mejora del 93% (se ha constituido una Fundación de Software Verde compuesta, a día de hoy, por 64 organizaciones, entre las que se incluyen gigantes como Google Intel o Microsoft)

Entre el 90% por la parte de hardware y el 93% por la de software, y nosotros con estos pelos rascando centésimas en los UPS, y alguna que otra décima, si es que queda alguna suelta, en los equipos de cooling, algo a lo que dedicaré las próximas entregas.

Artículos relacionados

Artículo 1 de 5