A FONDO

Intel acelera la IA desde el centro de datos a la nube y la red hasta el edge



Dirección copiada

Con los nuevos Xeon 6, los aceleradores Gaudí y la arquitectura Lunar Lake, Intel ofrece inteligencia artificial en soluciones de nube, redes, clientes y periféricos

Publicado el 4 jun 2024



Intel acelera la IA desde el centro de datos a la nube y la red hasta el edge
Intel acelera la IA desde el centro de datos a la nube y la red hasta el edge

Intel ha presentado en Computex tecnologías y arquitecturas preparadas para acelerar radicalmente el ecosistema de la IA, desde el centro de datos, la nube y la red hasta el edge y el PC. Con más potencia de procesamiento, eficiencia energética y bajo coste total de propiedad (TCO), los clientes ya pueden aprovechar todas las oportunidades de los sistemas de IA.

Durante su discurso en Computex, Pat Gelsinger destacó las ventajas de los estándares abiertos y el ecosistema de Intel para acelerar la oportunidad de la IA. En solo seis meses, la empresa ha pasado de lanzar los procesadores Intel Xeon de 5ª generación a presentar el nuevo miembro de la familia Xeon 6; de anticipar los aceleradores de IA Gaudi a ofrecer a los clientes empresariales un sistema de formación e inferencia de IA generativa (GenAI) rentable y de alto rendimiento; y de inaugurar la era de los PC con IA con los procesadores Intel Core Ultra en más de 8 millones de dispositivos a desvelar la próxima arquitectura de cliente, cuyo lanzamiento está previsto para finales de este año. 

Modernización del centro de datos para la IA

A medida que se aceleran las transformaciones digitales, las empresas se enfrentan a presiones cada vez mayores para renovar sus anticuados sistemas de centros de datos con el fin de ahorrar costes, alcanzar objetivos de sostenibilidad, maximizar el espacio físico y de rack y crear capacidades digitales totalmente nuevas en toda la empresa. 

Toda la plataforma y familia de procesadores Xeon 6 está diseñada específicamente para afrontar estos retos con SKUs de núcleos E (núcleos eficientes) y núcleos P (núcleos de alto rendimiento) para abordar una amplia gama de casos de uso y cargas de trabajo, desde IA y otras necesidades de computación de alto rendimiento hasta aplicaciones escalables nativas de la nube. Tanto los núcleos E como los P se basan en una arquitectura compatible con una pila de software compartida y un ecosistema abierto de proveedores de hardware y software.

El primero de los procesadores Xeon 6 en debutar es el Intel Xeon 6 E-core (cuyo nombre en clave es Sierra Forest), que está disponible a partir de hoy. Se espera que los núcleos Xeon 6 P (cuyo nombre en clave es Granite Rapids) se lancen el próximo trimestre.

Con una alta densidad de núcleos y un rendimiento excepcional por vatio, Intel Xeon 6 E-core ofrece una computación eficiente con unos costes energéticos significativamente más bajos. El rendimiento mejorado con una mayor eficiencia energética es perfecto para las cargas de trabajo de alta densidad y escalabilidad horizontal más exigentes, incluidas las aplicaciones nativas de la nube y las redes de distribución de contenidos, los microservicios de red y los servicios digitales de consumo.

Además, Xeon 6 E-core tiene enormes ventajas de densidad, permitiendo una consolidación a nivel de rack de 3 a 1, proporcionando a los clientes una ganancia de rendimiento a nivel de rack de hasta 4,2x y una ganancia de rendimiento por vatio de hasta 2,6x en comparación con los procesadores Intel Xeon de 2ª generación en cargas de trabajo de transcodificación de medios. Al utilizar menos energía y espacio de rack, los procesadores Xeon 6 liberan capacidad de cómputo e infraestructura para nuevos e innovadores proyectos de IA.

Aceleradores Intel Gaudi IA

Los procesadores Intel Xeon son el nodo de cabecera de CPU ideal para las cargas de trabajo de IA y funcionan en un sistema con aceleradores Intel Gaudi AI, diseñados específicamente para cargas de trabajo de IA.  Juntos, ofrecen una potente solución que se integra perfectamente en la infraestructura existente. 

Como única alternativa MLPerf a Nvidia H100 para el entrenamiento y la inferencia de grandes modelos de lenguaje (LLM), la arquitectura Gaudi ofrece a los clientes el rendimiento GenAI que buscan con una ventaja de precio-rendimiento que proporciona capacidad de elección y un tiempo de despliegue rápido con un coste total de explotación más bajo.

Los aceleradores Intel Gaudi 3 proporcionarán mejoras significativas en el rendimiento de las tareas de formación e inferencia de los principales modelos de GenAI, ayudando a las empresas a liberar el valor de sus datos patentados. Se prevé que Intel Gaudi 3 en un clúster de 8.192 aceleradores ofrezca un tiempo de entrenamiento5 hasta un 40% más rápido que el clúster de GPU Nvidia H100 de tamaño equivalente y un rendimiento de entrenamiento hasta un 15% más rápido para un clúster de 64 aceleradores frente a Nvidia H100 en el modelo Llama2-70B.

Para que estos sistemas de IA estén ampliamente disponibles, Intel está colaborando con al menos 10 de los principales proveedores de sistemas del mundo, incluidos seis nuevos proveedores que han anunciado que lanzarán Intel Gaudi 3 al mercado. Los nuevos colaboradores de hoy son Asus, Foxconn, Gigabyte, Inventec, Quanta y Wistron, que amplían la oferta de producción de los principales proveedores de sistemas Dell, Hewlett-Packard Enterprise, Lenovo y Supermicro.

Acelerando la IA en el Edge y el PC

Más allá del centro de datos, Intel está ampliando su huella de IA en el edge y en el PC. Con más de 90.000 despliegues periféricos y 200 millones de CPU suministradas al ecosistema, Intel ha permitido a las empresas tener la opción de elegir durante décadas. 

La compañía ha revelado los detalles arquitectónicos de Lunar Lake, el procesador estrella de la próxima generación de PC con inteligencia artificial. Con un enorme salto en la potencia de procesamiento gráfico y de IA, y centrado en el rendimiento de cálculo eficiente para el segmento de los ordenadores ligeros y finos, Lunar Lake ofrecerá hasta un 40% de potencia de SoC3 y más de 3 veces el cálculo de IA. Su lanzamiento está previsto para el tercer trimestre de 2024, a tiempo para la temporada de compras navideñas.

Artículos relacionados

Artículo 1 de 4