Microsoft analiza el impacto que tendrá la IA en la ciberseguridad

Charlie Bell, Executive Vice President, Security, Compliance, Identity, and Management de la compañía, asegura que existe una enorme responsabilidad para aquellos que están desarrollando y proporcionando seguridad a soluciones de IA y machine learning.

Publicado el 10 Mar 2023

Microsoft analiza el impacto que tendrá la IA en la ciberseguridad

Desde hace mucho existe la precepción de que los ciberdelincuentes llevan la delantera en agilidad. Los adversarios, con novedosas técnicas de ataque, suelen disfrutar de una cómoda ventaja antes de ser detectados de una forma concluyente. Incluso los que utilizan técnicas clásicas, como convertir en herramientas de ataque las credenciales o servicios de terceros, han disfrutado de agilidad que les proporciona ventajas en un mundo en el que continuamente aparecen nuevas plataformas.

Pero esta asimetría se puede corregir. Charlie Bell, Executive Vice President, Security, Compliance, Identity, and Management de Microsoft, cree que la IA tiene el potencial de inclinar la balanza de la agilidad en favor de los encargados de la defensa. La IA les permite ver, clasificar y contextualizar mucha más información y de forma mucho más rápida de lo que pueden lograr colectivamente grandes equipos de profesionales de la seguridad. La velocidad y las capacidades revolucionarias de la IA proporcionan a los expertos la posibilidad de arrebatar a los atacantes su ventaja en términos de agilidad.

Si proporcionamos la información adecuada a nuestra IA, el software que corre con la escala que proporciona la nube nos ayudará a localizar nuestras verdaderas flotas de dispositivos, identificar las suplantaciones extrañas y descubrir, de forma instantánea, qué incidentes de seguridad son evidentes y cuáles son en realidad pasos complejos de un plan más malicioso. Y lo hará más rápido de lo que un ser humano tarda en girar su silla para cambiar de una pantalla a otra.

La IA reducirá la barrera de entrada para carreras de ciberseguridad

Según un estudio realizado por ISC, la asociación sin ánimo de lucro de profesionales certificados en seguridad más grande del mundo, la fuerza laboral global dedicada a la ciberseguridad cuenta con cerca de 4,7 millones de trabajadores, incluyendo los 464.000 sumados en 2022. Sin embargo, el mismo estudio indica que se necesitarían otros 3,4 millones de trabajadores de ciberseguridad para proteger los activos de forma eficaz.

La seguridad siempre necesitará el trabajo conjunto de seres humanos y máquinas, y una automatización con IA más potente nos ayudará a decidir mejor a qué dedicamos el ingenio humano. Cuanto más podamos aprovechar la IA para obtener una visión procesable e interoperable de los riesgos y amenazas cibernéticas, más capacidad proporcionaremos a los profesionales menos experimentados que estén empezando su carrera profesional. De este modo, la IA abre la puerta al talento de nivel básico, al mismo tiempo que libera a los expertos con mayor cualificación para centrarse en retos mayores.

Cuanto mayor sea el trabajo de la IA en la primera línea, mayor será el impacto de los expertos de la seguridad y su inestimable conocimiento técnico. Esto también crea una enorme oportunidad y un toque de atención para finalmente contratar científicos de datos, programadores y un sinfín de perfiles que pueden profundizar en la lucha contra el ciberriesgo.

La IA debe ser liderada en primer lugar por los seres humanos

Hay numerosas visiones distópicas advirtiéndonos de en qué se podría convertir una IA mal utilizada o descontrolada. En ese sentido, Charlie Bell se pregunta ¿cómo nos aseguramos de que el potencial de la IA se utiliza para el bien y no para el mal, y de que la gente puede confiar en que la IA esté haciendo lo que se supone que debe? Parte de esa responsabilidad recae en los políticos, los gobernantes y los poderes globales. Y otra parte recae en la industria de la seguridad, que ayuda a construir la protección que impida a los malhechores utilizar la IA como herramienta para el ataque.

Ningún sistema de IA puede ser efectivo a menos que se base en el conjunto de datos adecuado, continuamente afinado y sujeto a los comentarios y las mejoras de los operadores humanos. Por más que la IA pueda ayudar en la lucha, los humanos somos responsables de su rendimiento, ética y crecimiento. Las disciplinas de ciencia de datos y ciberseguridad tienen mucho que aprender una de otra (e incluso de cualquier campo del conocimiento y la experiencia humanos) cuando exploramos la IA responsable.

La IA no será “la herramienta” que resuelva la seguridad en 2023, pero será cada vez más importante que los clientes escojan proveedores de seguridad que puedan ofrecer tanto inteligencia a gran escala frente a amenazas como IA a hiperescala. Combinados, serán los elementos que proporcionen a los clientes una ventaja sobre los atacantes cuando estén defendiendo sus entornos.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

D
Redacción Data Center Market

Artículos relacionados

Artículo 1 de 3