HPE prepara sus sistemas computacionales para el Big Data
18 de mayo 2017
La compañía consigue culminar su modelo del programa de investigación The Machine, y demuestra el potencial de la computación en memoria.
The Machine de HPE

HPE ha presentado una arquitectura de computación de memoria, el último hito en el proyecto de investigación The Machine. The Machine, el programa de I+D más extenso en la historia de la compañía, tiene como objetivo lanzar un nuevo paradigma llamado la Computación centrada en la Memoria (o Memory-Driven Computing), una arquitectura diseñada a medida para la era del Big Data.

“Los secretos del próximo gran avance científico, innovación que cambia la industria, o tecnología que altera la vida se esconden detrás de la gran cantidad de datos que creamos cada día”, ha explicado Meg Whitman, CEO de Hewlett Packard Enterprise. “Para cumplir esta promesa, no podemos confiar en las tecnologías del pasado, necesitamos una arquitectura de computación diseñada para la era del Big Data”.

El modelo presentado hoy posee 160 terabytes (TB) de memoria, capaz de trabajar simultáneamente con un volumen de datos similar al que contendrían todos los libros de la Biblioteca del Congreso de Estados Unidos multiplicados por cinco – aproximadamente, unos 160 millones de libros. Nunca ha sido posible almacenar y manipular conjuntos de datos de este tamaño en un sistema de memoria única, y esto es solo un ejemplo del inmenso potencial del Memory-Driven Computing.

Basándose en el modelo actual, HPE cree que la arquitectura podría crecer fácilmente a un sistema de memoria única del orden de los exabytes y, más allá, a un nivel de memoria prácticamente ilimitado – 4.096 yottabytes. Por ponerlo en contexto, esta medida equivale a 1.000 veces el tamaño del universo digital al completo en la actualidad.

Con esta cantidad de memoria, será posible trabajar simultáneamente con los historiales médicos digitales de cada persona en la tierra; cada dato de Facebook; cada viaje de los vehículos autónomos de Google; y todos los conjuntos de datos de la exploración del espacio, todo al mismo tiempo – hallando respuestas y descubriendo nuevas oportunidades a velocidades sin precedentes.

“Creemos que el Memory-Driven Computing es la solución para hacer evolucionar la industria tecnológica, de forma que se produzcan avances en todos los aspectos de la sociedad”, ha afirmado Mark Potter, CTO de HPE y Director de Hewlett Packard Labs. “La arquitectura que hemos presentado puede aplicarse a todas las categorías de computación, desde dispositivos Intelligente Edge hasta supercomputadoras”.

El Memory-Driven Computing coloca la memoria, no el procesador, en el centro de la arquitectura de computación. Al eliminar las ineficiencias de cómo la memoria, el almacenamiento y los procesadores interactúan en sistemas tradicionales hoy en día, el Memory-Driven Computing reduce el tiempo necesario para procesar problemas complejos de días a horas, de horas a minutos y de minutos a segundos para ofrecer inteligencia en tiempo real.

Especificaciones Técnicas

El nuevo modelo elaborado sobre los logros del programa de investigación The Machine, incluye:

•             160TB de memoria compartida repartida en 40 nodos físicos e interconectados, usando un protocolo de comunicaciones de alto rendimiento.

•             Un sistema operativo (OS)  basado en Linux optimizado para ejecutarse en un ThunderX2 , de segunda generación con doble Socket, buque insignia de Cavium, con capacidad de ser compatible con  un sistema ARMv8-A, optimizado para cargas de trabajo sobre un Sistema desplegado en un solo chip (SoC- System on a Chip)

•             Enlaces de comunicación fotónica y óptica, incluyendo el nuevo módulo fotónico X1, operando en línea.

•             Herramientas de programación de software diseñadas para aprovechar la abundante y persistente memoria.