Opinión

No todo es ChatGPT: la Inteligencia Artificial converge en el edge



Dirección copiada

Como base de todo este nuevo panorama de la computación, Intel está democratizando la IA en la nube y en el edge, lo que permite a las empresas convertir los datos en información valiosa

Publicado el 5 sept 2023

Antonino Albarrán

EMEA Datacenter and AI Technology Director de Intel



Antonino Albarrán Intel
Antonino Albarrán de Intel

Durante mucho tiempo ha existido una división entre qué cargas de trabajo podían ejecutarse en la CPU frente a la GPU para aplicaciones de aprendizaje automático (ML) e inteligencia artificial (IA).

El motivo es que ha proliferado la idea de que el ML es dominio exclusivo de las GPU y del hardware acelerador específico, dejando al margen a las CPU. Pero ha llegado la hora de cambiar esta concepción, porque la IA penetrará en todas las aplicaciones y en todos los flujos de trabajo de extremo a extremo.

Con el telón de fondo del creciente impacto en el mundo real de las aplicaciones y los casos de uso de la IA (a través del gran interés suscitado por aplicaciones como ChatGPT y deep fakes), el mundo se está dando cuenta de lo penetrante que se está volviendo la IA. Tanto los gobiernos como los usuarios ya no pueden permitirse quedarse atrás.

Desde el análisis de pequeños conjuntos de datos en el edge (como los utilizados por dispositivos IoT como los rastreadores Garmin), hasta enormes data lakes (como los necesarios para los sistemas terrestres y la vigilancia planetaria), ya no se necesita un hardware muy caro para entrenar estos sistemas.

IA y edge: una unión diferenciadora a largo plazo

La digitalización de nuestras vidas está generando una demanda de computación sin precedentes, ya que en los próximos dos años, hasta 2025, se prevé que la creación mundial de datos aumente a más de 180 zettabytes. En este contexto, la IA posee un factor diferenciador competitivo que también abarca al edge, a la nube y a los centros de datos.

Para adoptar la IA en toda una empresa, los desarrolladores necesitan un único entorno de desarrollo de software portátil, así como una plataforma informática ubicua que pueda aplicar cualquier técnica analítica. También, necesitan una aceleración especializada para cargas de trabajo como el entrenamiento en IA/ML, soluciones flexibles y abiertas que abarquen aplicaciones y entornos dispares y, por último, plataformas convergentes y programables, desde la nube hasta el edge que agilicen los flujos de trabajo y pongan el control en manos de los desarrolladores.

Como base de todo este nuevo panorama de la computación, Intel está democratizando la IA en la nube y en el edge, lo que permite a las empresas convertir los datos en información valiosa.

La nube ha provocado una transformación generacional en la forma de crear y ampliar empresas. A medida que crece la creación de datos y se acerca más al lugar donde se crean, el Edge se perfila como la próxima frontera de oportunidades.  Dentro del centro de datos, en la red y en el perímetro, la nube y la inteligencia artificial están cambiando la forma en que las empresas y los consumidores acceden a los datos y los utilizan, impulsando una demanda de computación sin precedentes.

IA y la 4ª Generación de Procesadores Escalables

Las empresas necesitan aceleración especializada para cargas de trabajo, al tiempo que se adaptan a las necesidades informáticas generales. Plataformas convergentes y programables cloud to edge que agilizan los flujos de trabajo y ponen el control en manos de los desarrolladores.

Para respaldar esa visión, la 4ª generación de procesadores Escalables Intel Xeon, cuyo nombre en código es Sapphire Rapids, integran una serie de nuevas capacidades diseñadas para ayudar a acelerar las cargas de trabajo de IA en la CPU de Intel. Esta generación de Xeon es la única CPU que ha registrado puntuaciones en el benchmark MLPerf, lo que demuestra que es el procesador líder para cargas de trabajo de IA. Además, pueden gestionar muchas otras cargas de trabajo, incluidas las de seguridad y redes al mismo tiempo, lo que reduce el coste total de propiedad.

Otra de las principales innovaciones de la 4ª generación de procesadores Escalables Intel Xeon, desde la perspectiva de la IA, es la integración de la tecnología Intel Advanced Matrix Extensions (AMX).

En la actualidad, muchas organizaciones descargan las necesidades de inferencia en GPU discretas para alcanzar el nivel de rendimiento y los acuerdos de nivel de servicio deseados e Intel AMX puede multiplicar por 10 la velocidad de inferencia de IA en comparación con los procesadores Intel Xeon de la anterior generación, lo que hace innecesario el uso de GPU discretas en muchas ocasiones. 

Si la IA está cada vez más presente en todas las aplicaciones y en todos los flujos de trabajo, la dicotomía entre qué cargas de trabajo corresponden a la GPU y cuáles a la CPU pierde relevancia. Las CPUs escalables Intel Xeon de 4ª generación son nuestra contribución para acortar esta brecha.

Artículos relacionados

Artículo 1 de 4