Huawei propone colaborar para garantizar la seguridad de los datos en la Inteligencia Artificial

El libro blanco sobre ciberseguridad en entornos de IA pretende dar respuesta a la necesidad de que gobiernos, organismos e industria tecnológica trabajen de manera conjunta para desarrollar códigos de conducta, estándares y leyes que mejoren la seguridad y la protección en la nueva era de la IA.

Publicado el 18 Oct 2019

Huawei propone colaborar para garantizar la seguridad de los datos en la Inteligencia Artificial

En su compromiso por contribuir al desarrollo de un entorno digital seguro, Huawei ha participado en el IX Encuentro de Cloud Security Alliance España. Este evento, creado por la Asociación Española para el Fomento de la Seguridad de la Información, ISMS Forum Spain, ha contado con la participación de Alan Tang, director adjunto de la oficina global de ciberseguridad y protección de la privacidad de Huawei, quien ha explicado los recientes pasos que ha dado la compañía en relación a la protección de los datos de los usuarios en los entornos digitales, entre los que se encuentra la presentación del libro blanco de ciberseguridad en entornos de Inteligencia Artificial (IA por sus siglas en castellano), “Pensando en la seguridad y la protección de la privacidad de la IA”. Este es un paso más en la relación entre Huawei e ISMS Forum Spain, organización con la que la compañía colabora desde 2013.

En palabras de Alan Tang: “la Inteligencia Artificial forma ya parte de nuestro día a día, impactando de manera positiva en la vida de millones de personas, sin embargo, es obvio que la tecnología avanza más rápido que los marcos legales y las políticas que las deben regular. Por ese motivo la industria y los gobiernos deben actuar de forma conjunta y rápida para crear estándares de seguridad comunes que maximicen las oportunidades y protejan a los ciudadanos de consecuencias no deseadas”.

La propuesta de Huawei para crear un entorno digital seguro para la IA

El libro blanco sobre ciberseguridad en entornos de IA fue presentado en Europa, en el Centro de Ciberseguridad y Transparencia de Huawei en Bruselas, y pretende dar respuesta a la necesidad de que gobiernos, organismos e industria tecnológica trabajen de manera conjunta para desarrollar códigos de conducta, estándares y leyes que mejoren la seguridad y la protección en la nueva era de la IA.

Por ello el documento elaborado por Huawei plantea prácticas y perspectivas sobre cuestiones de seguridad y privacidad a través de un modelo de Responsabilidad Compartida en el que la compañía hace un llamamiento a todos los jugadores implicados en el desarrollo de la IA para que analicen y contribuyan en la creación de un entorno digital seguro, proporcionando productos y servicios que garanticen su seguridad y privacidad. Así, este modelo de responsabilidad compartida propone cinco entidades responsables que deben trabajar de manera conjunta en un desarrollo seguro. Estos son: consumidores/clientes, desarrolladores de aplicaciones, implementadores, proveedores de soluciones full-stack y recolectores de datos.

Siete objetivos concretos de gobernanza en seguridad y privacidad

Este White Paper describe la perspectiva y las prácticas de la empresa en materia de seguridad de IA, problemas de privacidad y soluciones relacionadas a través de siete objetivos:

• Seguridad y capacidad de control del sistema: el sistema debe cumplir los requisitos de seguridad de robustez, estabilidad y adaptabilidad además de proporcionar una certificación de seguridad.

• Transparencia y trazabilidad: las lógicas generadas por el sistema (como por ejemplo predicción, juicio y acciones automatizadas) deben ser explicables y transparentes.

• Protección de la privacidad: la información y los datos personales deben protegerse y administrarse de conformidad con el Reglamento General de Protección de Datos (RGPD por sus siglas en castellano) y otras leyes aplicables.

• Equidad: para mitigar los posibles casos de inequidad causada por los procedimientos, las decisiones tomadas por medio de la Inteligencia Artificial deben cuestionar y buscar soluciones efectivas a estos hechos.

• Gestión de datos: se debe garantizar la integridad, precisión, disponibilidad, confidencialidad y exhaustividad de los datos.

• Competencia: un proveedor de soluciones debe especificar el conocimiento y las habilidades necesarias para ejecutar la tecnología IA de manera segura y efectiva. Y, además, aquellos que implementen y desarrollen soluciones deben seguir estos conocimientos y habilidades.

• Garantía del objetivo de despliegue: el despliegue y la aplicación de IA deben cumplir los requisitos de legalidad, equidad, seguridad, protección de la privacidad y el no uso indebido, así como los propósitos de despliegue.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

D
Redacción Data Center Market

Artículos relacionados

Artículo 1 de 2