ENCUENTROS

Conclusiones del tour de edge computing Barcelona 2023



Dirección copiada

Barcelona ha sido la segunda parada del tour edge convocado por Data Center Market para descubrir cómo está evolucionando esta filosofía en las empresas

Publicado el 20 dic 2023



Imagen de los asistentes al encuentro de edge computing Barcelona 2023
Imagen de los asistentes al encuentro de edge computing Barcelona 2023

El edge computing ha pasado de ser un caso de uso de nicho en un puñado de industrias a ofrecer una gran oportunidad para que las empresas de todos los sectores extiendan la potencia de cálculo por todo el mundo.

Sin embargo, ¿a qué nos referimos cuando hablamos de edge? El edge ofrece una nueva capacidad para trasladar la informática al borde de la red, donde está más cerca de los usuarios y los dispositivos, y lo que es más importante, lo más cerca posible de las fuentes de datos. La computación en el borde aprovecha el creciente número de dispositivos inteligentes en el perímetro de la red al permitir un mayor procesamiento de datos en el punto de recogida. En concreto, el análisis de datos complejos se está produciendo en áreas muy amplias, que abarcan desde la maquinaria de las fábricas hasta las señales de las vías del tren o el hardware de las cajas de las tiendas. Hoy en día, los consumidores pueden producir instantáneamente texto, imágenes y otros medios gracias a la Inteligencia Artificial.

Pese a que llevamos hablando del edge un tiempo, un estudio de Accenture revela que su uso no está generalizado y se aplica con enfoques diversos. Sólo el 65% de las empresas lo utilizan en cierta medida en la actualidad. De ellas, únicamente la mitad ha integrado profundamente el edge en su núcleo digital, que aprovecha la potencia de la nube, los datos y la IA a través de un conjunto de sistemas interoperables.

Estos hallazgos nos hacen plantearnos la siguiente pregunta: ¿están preparadas las infraestructuras de las organizaciones para el edge? Para dar una respuesta a este interrogante, Data Center Market ha organizado -de la mano de Rittal y Schneider Electric-, un encuentro en Barcelona como parte de su tour por España. A la cita acudieron portavoces de la Agència de Ciberseguretat de Catalunya, Aigues de Manresa, el Ajuntament de L´Hospitalet de Llobregat, la Cambra de Comerç de Barcelona, la compañía Frit Ravich, la Generalitat de Catalunya, La Salle Centro Universitario, la Politécnica de Cataluña – E.T.S. de Arquitectura del Vallés y Transports Metropolitans de Barcelona. Y esto fue lo que se dijo.

Comienza la explosión: de sistemas centralizados a distribuidos

Poco a poco en el mercado empezamos a vivir el despertar vaticinado hace años del edge computing. Al menos podemos decir que se está viendo un cambio de tendencia en las empresas que han pasado de tener todo centralizado, a descentralizarlo. De hecho, en el último lustro cualquier fábrica de cualquier sector ya cuenta con su propio CPD para tener cerca del negocio los datos que considera críticos y poder procesarlos con inmediatez.

Pero no se trata sólo de una situación que se esté produciendo exclusivamente en el terreno industrial, también está proliferando en otros campos de actividad como en el sanitario y el de transporte con el aumento de dispositivos IoT conectados y distribuidos, en educación gracias a las clases a distancia o en la misma Administración Pública con el desarrollo de smart cities en la agenda.

Podríamos decir que cada vez hay más proyectos de investigación en la materia como, por ejemplo, la creación de un centinela digital para los bosques mediante el despliegue de una serie de sensores en las propias plantas que se comuniquen entre ellos y generen alertas para analizar, entre otros asuntos, riesgos de incendios.

No obstante, el edge no es la solución para todo ni para todas las organizaciones. Para muchas compañías no tiene viabilidad – porque no pueden abordar iniciativas de esta índole en zonas donde la infraestructura ni la cobertura necesaria está disponible-, ni utilidad -no precisan tener datos en tiempo real-, al menos en un futuro próximo. Como ocurre con la nube: si todas las empresas pudieran alojar sus aplicativos en la cloud, no tendrían data center en propiedad y la fórmula híbrida no sería la mayoritaria. Pero el tema de los costes, de la capacidad de gestión y control sobre esos CPD externalizados que se contratan… es otro cantar. Por ello, se tiene que ir testeando la tecnología en función de las necesidades, definiendo casos de uso y validándolos, comprobando si sirve o no a los intereses de negocio o de experiencia de uso. En este proceso, la arquitectura que se diseña resultará clave.

Sea como fuere, según los expertos, el 60 o 70% de datos se gestionará en el edge y no en los data center centralizados. Esto no quiere decir que vayan a desaparecer estos ni la nube, pero sí deja traslucir que hay una necesidad de tener una tecnología cercana de procesamiento, una necesidad de tener que tomar decisiones en tiempo real. Y esta demanda provoca que el mercado crezca. En resumen: vamos a tener sí o sí infraestructuras descentralizadas, que es una extensión de mi red o mi data center. Soluciones como micro CPD que precisan y ofrecen los mismos requisitos que las grandes instalaciones: suministro eléctrico, comunicaciones, sistemas redundantes…, pero en menor tamaño.

La cuestión es si están las infraestructuras preparadas para el edge o si existe alguna fórmula para ponerlas a punto.

Más que una tecnología

Lo primero de todo, más que una tendencia el edge es una forma de trabajar, una filosofía: procesar los datos allí donde se producen. Y tiene un elemento crucial: la latencia, que ha de ser muy baja.

Sin embargo, surgen dudas acerca de qué es lo que determina un proyecto de este calado, sobre cuál es el límite entre IoT, sensórica y edge, ¿es IoT con potencia de cálculo? Básicamente, la gestión y el análisis es la respuesta. Bajo este modelo, la computación, la arquitectura y las comunicaciones están en el extremo, donde se ha incrementado la capacidad de cómputo de la información procesada. Ese extremo que es el dispositivo en cuestión: una cámara de videovigilancia, un sensor, etc. Gracias a estas nuevas habilidades y al hecho de aportar inteligencia a esa capacidad de computación, ya no se necesita gran capacidad de red porque se envían paquetes de datos más pequeños.

El quid es el volumen de datos. En un principio en informática los datos se conectaban a un gran servidor. Pero fueron creciendo los datos de forma más rápida que las propias redes, el volumen a transmitir e intercambiar aumenta por lo que se cambia el paradigma de unidad central de computación.

Sea como fuere, no puedes abordar un proyecto edge como un elemento único, sino como la confluencia de varias tecnologías. Antes hablábamos de la nube en todas las vertientes, ahora de edge computing y de IA. Como todos los avances, tiene un proceso de crecimiento, madurez y caída.

En el momento actual nos encontramos en una fase de crecimiento, principalmente en el apartado de infraestructura, en la capa de red, aspecto en el que está focalizando sus esfuerzos la Administración Pública. La idea es monitorizar todo el tráfico que pasa por las redes -lidiando con la sobrecarga de las mismas-, para luego centrarse en la capa de servicios. El siguiente nivel. Así pues, estamos en un estatus incipiente, de prueba y error, de investigación y luego vendrá la imbricación de diferentes tecnologías.

¿Cómo aseguramos el edge?

Ha quedado claro que el edge es una gran oportunidad de mercado, en tanto en cuanto acerca el cómputo al cliente final, pero también es un gran reto. Llevar la sensorización a servicios esenciales y críticos, los expone a una serie de amenazas que no figuran en otros entornos. Sin embargo, ¿podemos proteger todos esos sensores desplegados?, ¿tienen la seguridad embebida?

El edge aporta velocidad de procesamiento; la otra cara de la moneda es que los ataques se vuelven mucho más rápidos por lo que tendremos que disponer de soluciones capaces de proteger a esa velocidad. Las redes 5G, las ciudades inteligentes, la Internet de las cosas… los ámbitos de actuación son mayores lo que implica definir parámetros específicos de operación y respuesta de seguridad para estos entornos. En este contexto, el cuidado de la entrada a la red -definiendo patrones de actuación de los usuarios-, y la redundancia de los sistemas cobra más relevancia que nunca.

Hace tiempo los departamentos de seguridad predicaban en el desierto, lo bueno es que ahora trabajan codo con codo con negocio y gerencia. TI ya es consciente del lugar protagonista que tiene la seguridad y que ésta debe estar presente desde el diseño, pero no ocurre lo mismo en OT. Las empresas han ido creciendo con una separación entre ambos mundos, pero ahora este distanciamiento tiende a desaparecer y se apuesta por la convergencia. Y es que, con la incorporación de todas estas tecnologías de conectividad y análisis, la parte de operaciones tiene un impacto mayor en las organizaciones. La fábrica se ha convertido en un patchwork que se va configurando en función de necesidades, por lo que se impone definir un roadmap de procesos tecnológicos a futuro. Y eso supone no ver una tecnología aislada, sino hablar de ecosistemas. Lamentablemente todavía hay mucho camino por recorrer en asegurar la parte operacional. Eso sí, cada vez más se depende de la informática, por lo que ésta se mira con más cariño, pero en aquellas organizaciones en la que no es su core, cuesta más tenerla en cuenta, aunque se sea consciente de que toca directamente al negocio.

Asimismo, debemos recalcar que no sólo se trata de ciberseguridad, también es trascendental la seguridad física porque hay una puerta más de entrada, una amenaza más: el acceso físico al dispositivo. Si expandimos el perímetro y no lo preservamos a nivel físico podemos tener problemas. Tenemos que pensar en cómo proteger el edge y la IoT, pero, por hasta la fecha, el sector no está en estos menesteres. Se está centrando en hacer inversiones en necesidades reales de hoy, haciendo foco en lo que es más peligroso y pensando en el futuro conociendo cuáles son los riegos en el horizonte.

En definitiva, buscar un equilibrio, pero siempre con un objetivo en mente: una estrategia zero trust. Para este fin cualquier ayuda es poco. Más allá de apagar fuegos, se antoja imprescindible realizar auditorías, asegurarse de que la infraestructura esté preparada y sea tolerante a fallos, que cumple con las certificaciones que avalan su disponibilidad y respuesta, y, por supuesto, servirse de un ecosistema de tecnologías maduras que contribuyan a la tarea.

Talento, gestión del cambio, gobierno y estandarización

Pero si asegurar el edge es un auténtico quebradero de cabeza, todavía lo es más no tener personal preparado para hacerlo. De nuevo, la ausencia de talento sale a escena. A lo que se suma la gestión del cambio, tanto generacional como de tecnologías que supone una gran pelea, sobre todo, en entornos operativos.

Junto a ellos surge otro desafío: cómo organizar de forma unificada todos los sistemas distribuidos y conseguir que hablen el mismo idioma, que se entiendan. Y, cómo, sobre todo, gobernar todos los datos obtenidos por esas aplicaciones de procesamiento local.

A día de hoy es más fácil implementar un paradigma de cloud computing porque tiene un catálogo de servicios preconfigurados. Es decir, resulta más fácil moverse a la nube desde el punto de vista operativo porque hay servicios y aplicaciones estandarizadas. Así las cosas, otro de los retos del edge computing y que enlaza con su administración es la estandarización.

Artículos relacionados

Artículo 1 de 5