¿QUÉ ES DATA CENTER MARKET (DCM)?

DCM es el lugar para conocer todo lo relacionado con el mundo del CPD, servidores, virtualización y cloud computing

¿QUIERES ANUNCIARTE EN DCM?

Contacta con Iris Nieto:
 iris.nieto@bps.com.es
+34 697 193 057

NEWS

Últimas tendencias en torno a la gestión y analítica de datos

Un informe de SDG Group destaca la innovación alrededor del cloud, de la ciberseguridad, de la IA y el machine learning, clave para entender hacia dónde evolucionará el análisis de datos. El data se convierte en su principal activo, mientras que la IA cuántica ya se postula como tendencia clave.

Tendencias TI   23 dic 2021
Qué podemos esperar de la gestión y analítica de datos
Qué podemos esperar de la gestión y analítica de datos
Redacción Data Center Market

En el último año tanto las empresas como las personas han tenido que ser resilientes para adaptarse a la nueva normalidad. La tecnología y, en concreto, el análisis de datos se ha convertido en grandes aliados para encarar los retos empresariales, sociales y, también, culturales que la pandemia ha supuesto. SDG Group da a conocer las nuevas tendencias de Data Analytics para el 2022. 

 

1.) Nacidos en la nube. La nueva generación del Data Warehouse: de Data Mesh & Data Fabric a Data Vault 2.0

Gracias a la nube, las empresas están adoptando arquitecturas de datos, modelados y estructuras cada vez más profundas, escalables y transformacionales. El cloud abre la puerta a la nueva generación del Data Warehouse habilitando el Data Mesh, Data Vault 2.0 y Data Fabric, tecnologías y prácticas pensadas y creadas de manera nativa en la nube.

Ejemplo de ello es el Data Mesh, un enfoque holístico para la gestión de los datos en el que converge una arquitectura controlada por dominios distribuidos, el tratamiento de los datos como un producto, el diseño de infraestructuras de datos de autoservicio y la gobernanza de ecosistemas. Y el Data Fabric, una arquitectura que habilita el acceso y el intercambio de datos en un entorno distribuido, sin importar si están en la nube privada, pública, on-premise o multicloud.

Encontramos también el Data Vault 2.0, la evolución al siguiente nivel del Data Vault que se origina gracias al cloud, y el DataOps, un marco agile para la configuración y gestión colaborativa de tecnologías, procesos y datos. Todas estas tendencias actuales tienen un denominador común: se articulan sobre el inmenso potencial de la nube para intentar dar respuestas de calidad a las demandas continuas de innovación y flexibilidad de las organizaciones.

 

2.) DataOps sin límites: la IA toma el relevo, escalando la Hiperautomatización y el Metadata Lakehouse

DataOps es el marco tecnológico inspirado en el movimiento DevOps. Su objetivo es el de crear entregas predecibles y una gestión de cambio en los datos, modelos de datos y artefactos relacionados. ¿Cómo lo consigue? Aprovechando la tecnología para automatizar la entrega de datos con un nivel idóneo de seguridad, calidad y metadatos para mejorar el uso y el valor de los datos en un entorno dinámico. DataOps activa las palancas que exigen las empresas impulsadas por los datos: gobernanza, flexibilidad, escalabilidad, eficiencia y automatización.

Esta tendencia -que ya mencionamos el año pasado- está evolucionando ahora al siguiente nivel gracias a la inteligencia artificial y al Machine Learning creando entornos de hiperautomatización. Ahora las organizaciones identifican, examinan y automatizan rápidamente los procesos de gestión de los datos, lo que influye directamente en el Data Quality -permitiendo que las empresas sean más rápidas a la hora de perfilar y pulir sus datos-.

 

3.) Un cambio de paradigma: de un enfoque en el producto a uno donde el cliente está en el centro, con una visión omnicanal

Para responder a las necesidades del cliente no nos queda que ponerle en el centro de la experiencia de compra. En este ámbito, la estrategia multicanal ha sido definitivamente desbancada por la omnicanalidad, habilitada principalmente por la hiperconectividad (cloud, 5G, IoT). Es decir, dejan de existir las barreras entre los canales digitales y físicos y también las campañas concebidas por plataforma. Ahora el foco ya no se pone en el producto y en los distintos “escaparates” donde venderlo, sino que se centra en el cliente para proporcionarle una experiencia de compra única y homogénea esté donde esté.

 

4.) D.A.T. A.: Datos como Activo Transformacional

El dato no tiene valor per se, sino que se postula a eje empresarial en la medida en que se convierte en un activo monetizable y diferenciador. El D.A.T.A. ha de entenderse aquí como el conjunto de datos, algoritmos, prácticas e información del que dispone una empresa. Las organizaciones que aprovechan la información que esos datos proporcionan y extraen valor de ellos, son aquellas que se diferencian de sus competidores.

 

5.) Entornos de confianza que pivotan sobre Cybersecurity Analytics, Blockchain y Privacy-Enhancing Computation

Las empresas están adoptando estrategias de ciberseguridad Zero Trust que proporcionan protección más allá del perímetro tradicional. Se trata de un enfoque proactivo de la ciberseguridad que se basa en la identidad y que utiliza las capacidades de recopilación y análisis de datos (Cybersecurity Analytics) para una detección más rápida de las amenazas, así como la automatización de las tareas de seguridad manuales.

El entorno ciberseguro se apoya también en tecnología blockchain, una gran aliada de la ciberseguridad ya que garantiza el almacenaje de datos mediante su descentralización y la información cifrada. Esta tecnología aporta un gran valor especialmente en la protección de la identidad, la protección de los datos, la protección de las infraestructuras y trazabilidad del flujo de datos.

En este contexto aparece en escena también el Privacy-Enhancing Computation (PEC), un conjunto de tecnologías que protegen los datos mientras se procesan, comparten, transfieren y analizan. La adopción de PEC está aumentando, en particular para la prevención del fraude. Según Gartner “para el 2025, el 50% de las grandes organizaciones adoptará la tecnología para aumentar la privacidad del procesamiento de datos en entornos no confiables o en casos de uso de análisis de múltiples fuentes de datos”.

 

6.) Self-Service 2.0 y Auto ML: un choque de dos fuerzas

Las empresas están apostando por el Self-Service 2.0 y por el modelo de Auto Machine Learning para aumentar sus capacidades de extracción de insights. Esto ocurre porque estas tecnologías aceleran la adopción de soluciones dando acceso directo a los usuarios finales, democratizando el acceso a los datos y poniendo el foco en la generación de insights.

Por un lado, el Self Service 2.0 está integrando y aprovechando la capacidad analítica de los modelos impulsados por la IA. Por otro lado, el Auto ML está utilizando la parte visual y de reporting para presentar sus algoritmos avanzados. Estas evoluciones muestran cómo estas tecnologías están intentando facilitar un 360º en cada uno de los ámbitos, cubriendo los aspectos analíticos de los usuarios.

 

7.) La IA responsable y privada se convierte en un imperativo 

La disrupción que supone la computación cuántica unida a la IA nos lleva a tener una gran responsabilidad alrededor de la gestión ética de los datos. Tras el éxito de la privacidad (impulsado por la legislación del RGPD) ahora es el momento de regular su uso, garantizando su desarrollo ético y responsable, cuando esta tenga un impacto sobre la ciudadanía. Es importante que las empresas y las instituciones definan su estrategia de “IA for Good” con el objetivo de minimizar la deuda tecnológica y un compromiso de hacer buenos procesos de ingeniería, con algoritmos transparentes y justos.

En esta línea, surge el nuevo concepto de Private IA. En el ámbito de las administraciones públicas o entidades donde la compartición de datos es compleja, se están creando estrategias de IA que permiten obtener los insights utilizando encriptaciones y así exponer los datos lo mínimo posible.

 

8.) El próximo gran éxito: la IA Cuántica cobra impulso

Cada vez son más las empresas que están invirtiendo en Quantum IA porqué esperan que se convierta en la próxima revolución. En la actualidad estamos viviendo un paralelismo importante en la forma en la que se está desarrollando la computación cuántica y su convergencia con las técnicas de analítica avanzada; y es importante que hagamos un uso consciente y coherente de los beneficios que este nuevo paradigma ofrece.

 

9.) Ecosistema Metaverso: el gran impulso a la Realidad Extendida

Metaverso no es solo una palabra de moda en el sector de la tecnología. El metaverso es un ecosistema que facilitará el aprovechamiento de la llamada EX, la realidad extendida. Bajo el paraguas de la EX encontramos todas las tecnologías inmersivas que fusionan el mundo real con el virtual: realidad aumentada, virtual y mixta.

 

10.) IA Generativa: un salto adelante en la creación automatizada de nuevo contenido

La inteligencia artificial se suele aprovechar para entrenar algoritmos a partir de conclusiones, ¿pero sabemos si puede crear contenidos e innovar por sí sola? La respuesta es sí y está en la Generative AI, uno de los avances más prometedores del entorno de la IA en los próximos años. La Generative AI permite a los ordenadores reconocer de manera automática los patrones subyacentes relacionados con la información de entrada para, a continuación, utilizarlos para generar nuevos contenidos originales.

 

¿Quiere recibir nuestra newsletter?

Déjenos sus datos y le haremos llegar las noticias a su email.

REGISTRARSE