NOTICIAS DATA CENTER

La IA Generativa crece un 890% y genera el 14% de los incidentes de fuga de datos



Dirección copiada

Las organizaciones conviven con una media de 6,6 aplicaciones de IA generativa de alto riesgo, muchas sin supervisión ni políticas claras, según Palo Alto Networks

Publicado el 9 jun 2025



La IA Generativa crece un 890% y genera el 14% de los incidentes de fuga de datos
La IA Generativa crece un 890% y genera el 14% de los incidentes de fuga de datos

Palo Alto Networks ha presentado el “2025 State of GenAI Report”, un análisis exhaustivo sobre cómo las empresas están adoptando la Inteligencia Artificial Generativa, los beneficios que obtienen en términos de productividad y los nuevos riesgos de ciberseguridad que emergen en este proceso.

Basado en el análisis de tráfico de más de 7.000 organizaciones globales durante 2024, el informe revela un crecimiento sin precedentes en el uso de aplicaciones de IA generativa, con un incremento del 890% en el volumen de tráfico registrado. Esta aceleración responde a la madurez de los modelos, al avance de la automatización y a la constatación de mejoras tangibles en productividad, con un impacto económico incremental estimado de hasta el 40%, según datos de McKinsey. Un ejemplo destacado fue el lanzamiento de DeepSeek-R1 en enero de 2025, que provocó un aumento del 1.800% en su tráfico en apenas dos meses.

El uso no controlado multiplica los riesgos de seguridad

Este uso masivo viene acompañado de un crecimiento notable en los riesgos. En el primer trimestre de 2025, los incidentes de pérdida de datos (DLP) vinculados a la IA generativa se multiplicaron por 2,5, y ya representan el 14% del total de incidentes registrados. Además, el número medio de aplicaciones de IA generativa detectadas por organización asciende a 66, lo que refleja una expansión rápida y, en muchos casos, descontrolada de este tipo de herramientas.

Uno de los fenómenos más preocupantes es el de la Shadow AI, es decir, el uso no autorizado de herramientas de IA por parte de empleados sin supervisión del área de TI. Esta práctica erosiona la visibilidad, complica el cumplimiento normativo y pone en peligro la confidencialidad de la información empresarial. Según el informe, las organizaciones conviven con una media de 6,6 aplicaciones de IA generativa de alto riesgo sin un marco de control claro.

Más del 70% de las apps de IA generativa pueden ser manipuladas

El 83,8% de las interacciones con IA generativa analizadas proceden de plataformas de asistencia a la escritura, agentes conversacionales, buscadores corporativos y entornos de desarrollo. Grammarly lidera entre los asistentes de escritura con un 39% del tráfico, mientras que Microsoft encabeza la adopción empresarial de agentes de IA, con casi el 49% de las organizaciones utilizando Microsoft Copilot o Copilot Studio. En el caso de España, las tres herramientas de IA generativa más utilizadas por volumen son Microsoft 365 Copilot (24,1%), Microsoft PowerApps (23,9%) y ChatGPT de OpenAI (23,4%).

El informe también advierte de vulnerabilidades persistentes: más del 70% de las aplicaciones evaluadas fueron susceptibles a ataques de tipo jailbreak, capaces de inducir respuestas con contenido autolesivo, discriminatorio, ofensivo o instrucciones sobre actividades ilegales. Esta situación subraya la necesidad de establecer marcos éticos y técnicos más sólidos en el diseño y despliegue de modelos generativos.

En cuanto a sectores, el tecnológico y el industrial destacan como los más intensivos en el uso de la IA generativa para tareas de desarrollo: juntos generan el 39% de todas las actividades de codificación. Este tipo de plataformas presentan riesgos adicionales como ejecución de código malicioso, fugas de propiedad intelectual y exposición a problemas legales o éticos.

Cómo protegerse con un enfoque integral de gobernanza en IA

Ante este escenario, Palo Alto Networks insta a las organizaciones a adoptar un enfoque integral de gobernanza de la IA, basado en la visibilidad, el control del uso y la seguridad avanzada en todos los niveles del entorno digital. El informe propone tres líneas de actuación prioritarias:

•            Controlar el uso de la IA generativa y definir qué se permite: mediante políticas de acceso condicional que tengan en cuenta usuarios, ubicación, dispositivos, niveles de riesgo y objetivos legítimos.

•            Proteger los datos sensibles frente al acceso no autorizado o fugas: mediante inspección de contenido en tiempo real y políticas centralizadas de seguridad en todos los flujos de datos.

•            Defenderse frente a ciberamenazas modernas basadas en IA: aplicando arquitecturas Zero Trust capaces de detectar y bloquear malware sofisticado y amenazas encubiertas en respuestas generadas por IA.

Artículos relacionados

Artículo 1 de 5