OPINIÓN

Ley de IA de la UE: legislar basándose en el riesgo



Dirección copiada

La Unión Europea pretende establecer un marco jurídico uniforme para que la IA sea empleada conforme a los valores de la UE y que garantice que los países miembros se conviertan en líderes mundiales en el desarrollo de una IA segura, digna de confianza y ética.

Publicado el 8 nov 2023

Laura Martínez Retamar

consultora senior de GlobalSuite Solutions



Laura Martínez Retamar, consultora senior de GlobalSuite Solutions
Laura Martínez Retamar, consultora senior de GlobalSuite Solutions

Europa dio un paso adelante el pasado mes de junio tras iniciar los trámites para la aprobación definitiva de la primera normativa que regule el uso de la Inteligencia Artificial. La propuesta de Ley de IA de la UE supone un marco regulador que tuvo origen en la Comisión Europea en abril de 2021, cuyo enfoque general recibió el apoyo del Consejo Europeo el año pasado y ha sido el Parlamento Europeo el último en dar su visto bueno al inicio de su tramitación. A partir de ahora los tres organismos comenzarán a negociar los distintos elementos para ultimar los detalles del texto definitivo del Reglamento Europeo de Inteligencia Artificial, que se espera que entre en vigor en los próximos años.

¿Cuáles son las claves del proyecto? ¿Qué se pretende combatir con la nueva legislación? La primera propuesta de la Comisión Europea de 2021 pretendía que los sistemas de IA deberían ser analizados y clasificados según el riesgo que supongan para los usuarios. Los distintos niveles de peligro implicarán una mayor o menor regulación. Por su parte, el Parlamento Europeo quiere que cualquier sistema de inteligencia artificial sea seguro, transparente, trazable, no discriminatorio y respetuoso con el medio ambiente y la protección de los derechos humanos y la privacidad. Además, quiere que cualquier IA sea supervisada por personas. Es decir, no quiere que esa supervisión se realice de forma automatizada.

Con todo ello, lo que se pretende es que en la Unión se establezca un marco jurídico uniforme para que la IA sea empleada conforme a los valores de la UE y que garantice que los países miembros se conviertan en líderes mundiales en el desarrollo de una IA segura, digna de confianza y ética.

A quién afecta la Ley de la IA de la UE

El nuevo reglamento resultará de aplicación: por un lado, a aquellos proveedores que pongan en marcha cualquier desarrollo de Inteligencia Artificial en un país de la Unión, independientemente de si la sede del proveedor se encuentra en un país europeo o en un tercero. Asimismo, afectará a todos los usuarios de soluciones basadas en IA del Viejo Continente y, finalmente, tanto a proveedores como usuarios de sistemas de IA de un país no miembro de la Unión, si la información de salida generada por la IA se utiliza en la Unión Europea.

Los legisladores creen que conseguir esta serie de objetivos requiere calificar a los sistemas de IA según sus riesgos. De esta forma, las diferentes soluciones de IA serán catalogadas como de riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo.

En concreto, se considerará como IA de riesgo inaceptable a aquellas que constituyan una amenaza para las personas, como las que atentan contra los derechos humanos. Todas ellas serán prohibidas. En esta categoría entrarían aquellos sistemas dirigidos a realizar una manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos, como, por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños. Tampoco se permitirán aquellos sistemas diseñados para clasificar personas en función de su comportamiento, estatus socioeconómico o características personales, así como los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.

Por su parte, la IA de alto riesgo estará permitida siempre que cumpla determinados requisitos obligatorios. Entre otros, se incluyen en esta categoría aquellos sistemas que puedan influir en los procesos electorales y las plataformas de redes sociales con más de 45 millones de usuarios que recomiendan contenidos a sus usuarios, lo que incluiría a Facebook, Twitter, Instagram o TikTok.

Los sistemas de IA con riesgo mínimo o nulo, como los filtros de spam, serán permitidos y de uso libre.

Protección de Datos

Aunque la primera piedra de la construcción de la ley comunitaria se puso antes de que ChatGPT acercara la IA generativa a todos los usuarios, la normativa también establece requisitos de transparencia para esta tipología de sistemas, de tal forma que estarán obligados a revelar que sus contenidos son generados por IA, distinguir las imágenes falsas de las reales y proporcionar salvaguardas contra la generación de contenidos ilegales. Asimismo, tendrán la obligación de publicar resúmenes detallados de los datos protegidos por derechos de autor utilizados para entrenar estos sistemas de IA.

En lo que respecta a la protección de datos personales la normativa impone la obligación a los usuarios de sistemas de IA de alto riesgo de llevar a cabo una evaluación de impacto relativa a la protección de datos que les imponen el artículo 35 del RGPD, cuando corresponda.

La UE parece que se va a tomar muy en serio también el apartado sancionador ya que incurrir en prácticas prohibidas por la Ley de IA podría acarrear una multa de hasta 40 millones de euros o una cantidad equivalente a un máximo del 7 % de la facturación anual global de una empresa. A modo de comparativa, la legislación europea de protección de datos RGPD impone multas de hasta 10 millones de euros o hasta el 2 % de la facturación global de una empresa.

Artículos relacionados

Artículo 1 de 5