Cargando. Por favor, espere

Portada

En su reunión del 21 de mayo, el Consejo de la UE ha ratificado definitivamente la aprobación del Reglamento de inteligencia artificial (IA) propuesto por la Comisión y ya aprobado por el Parlamento el pasado mes de marzo, tras el período final de negociaciones del segundo semestre de 2023.

Ahora, tras ser firmado por los presidentes del Parlamento Europeo y del Consejo, el Reglamento, también denominado “Ley de Inteligencia Artificial” (o “Artificial Intelligence Act”, en inglés), deberá ser publicado en el Diario Oficial de la UE, en los próximos días, como paso previo a su entrada en vigor, veinte días después de esta publicación.

Ello no significa la inmediata aplicabilidad de la norma pues, como explicamos en su momento, resulta fundamental diferenciar entre la entrada en vigor y la aplicación directa del Reglamento de IA.

• La entrada en vigor de un reglamento de la UE representa la fecha en que el reglamento tiene existencia jurídica en el ordenamiento jurídico de la UE y en el ordenamiento jurídico nacional de cada Estado miembro.

• La fecha de aplicabilidad representa la fecha a partir de la cual el reglamento puede producir derechos y obligaciones sobre los destinatarios y puede hacerse valer directamente ante los tribunales, las administraciones, los gobiernos nacionales, etc. Esto significa que antes de la fecha de aplicabilidad, las obligaciones o privilegios no pueden ni ejercerse ni hacerse valer.

• En suma, debido a la complejidad de los ámbitos que se regulan, puede ser necesario un período de tiempo entre la fecha de entrada en vigor de la normativa, es decir, cuando existe legalmente, y la fecha en que puede aplicarse realmente, es decir, la fecha en que es ejecutable y pueden ejercerse efectivamente los derechos y obligaciones legales.

Hecha esa distinción, hay que decir que la ley será directamente aplicable dos (2) años después de su entrada en vigor, aunque ciertas disposiciones, como las relativas a los sistemas de IA prohibidos y de propósito general, tendrán unos periodos más cortos, de seis (6) y doce (12) meses respectivamente.

Enfoque basado en el riesgo

La nueva ley tiene como objetivo fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables en todo el mercado único de la UE por parte de actores públicos y privados. Al mismo tiempo, pretende garantizar el respeto de los derechos fundamentales de los ciudadanos de la UE y estimular la inversión y la innovación en inteligencia artificial en Europa.

El Reglamento sigue un enfoque "basado en el riesgo" , lo que significa que cuanto mayor es el riesgo de causar daño a la sociedad por la utilización de un sistema de IA, más estrictas son las normas que se aplicarán al mismo.

El Reglamento se aplica sólo a aquellas áreas que entran dentro de la legislación de la UE y excluye su aplicación a aquellos sistemas utilizados exclusivamente con fines militares y de defensa, así como a los sistemas utilizados con fines de investigación, ensayo y desarrollo de sistemas o modelos de IA, antes de su comercialización o puesta en servicio; a los dedicados a usos privados no profesionales; a las actividades de investigación, o a los sistemas de código abierto (salvo que sean considerados de alto riesgo).

Según el Consejo, con esta norma, Europa enfatiza la importancia de la confianza, la transparencia y la responsabilidad cuando se trata de nuevas tecnologías y, al mismo tiempo, garantiza que esta tecnología en rápida evolución pueda florecer e impulsar la innovación europea.

Clasificación de los sistemas de IA como prácticas de IA prohibidas y de alto riesgo

La nueva ley clasifica diferentes tipos de inteligencia artificial según el riesgo.

Los sistemas de IA que presenten solo un riesgo limitado estarían sujetos a obligaciones de transparencia muy leves, mientras que los sistemas de IA de alto riesgo estarían autorizados, pero sujetos a un conjunto de requisitos y obligaciones para obtener acceso al mercado de la UE.

Por el contrario, sistemas de inteligencia artificial dedicados a actividades como, por ejemplo, la manipulación cognitivo-conductual y la puntuación social, serán prohibidos en la UE porque su riesgo se considera inaceptable.

La ley también prohíbe el uso de IA para vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, religión u orientación sexual.

Modelos de IA de propósito general

La ley de IA también aborda el uso de modelos de IA de propósito general (GPAI) .

Aquellos modelos GPAI que no presenten riesgos sistémicos estarán sujetos a algunos requisitos limitados, por ejemplo con respecto a la transparencia , pero aquellos con riesgos sistémicos tendrán que cumplir con reglas más estrictas.

Una nueva arquitectura de gobernanza

Para garantizar una aplicación adecuada, se crean varios órganos de gobierno:

- Un Comité de AI con representantes de los estados miembros para asesorar y ayudar a la Comisión y a los estados miembros en la aplicación consistente y efectiva de la Ley de AI.

- Una Oficina de IA dentro de la Comisión para hacer cumplir las normas comunes en toda la UE

- Un panel científico de expertos independientes para apoyar las actividades de aplicación de la ley.

- Un foro consultivo para que las partes interesadas proporcionen conocimientos técnicos a la Junta de IA y a la Comisión.

Sanciones

Las multas por infracciones de la ley de IA se fijan como un porcentaje del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o una cantidad predeterminada, lo que sea mayor. Las pymes y las empresas de nueva creación están sujetas a multas administrativas proporcionales.

Transparencia y protección de los derechos fundamentales

Antes de que algunas entidades que prestan servicios públicos implementen un sistema de IA de alto riesgo, será necesario evaluar el impacto sobre los derechos fundamentales . El reglamento también prevé una mayor transparencia con respecto al desarrollo y uso de sistemas de inteligencia artificial de alto riesgo.

Los sistemas de IA de alto riesgo, así como ciertos usuarios de un sistema de IA de alto riesgo que sean entidades públicas, deberán estar registrados en la base de datos de la UE para sistemas de IA de alto riesgo, y los usuarios de un sistema de reconocimiento de emociones tendrán que informar a las personas naturales. personas cuando están expuestas a dicho sistema.

Medidas de apoyo a la innovación

La Ley de IA proporciona un marco legal favorable a la innovación y tiene como objetivo promover el aprendizaje regulatorio basado en evidencia. La nueva ley prevé que los entornos de pruebas regulatorios de IA , que permiten un entorno controlado para el desarrollo, prueba y validación de sistemas de IA innovadores, también deberían permitir probar sistemas de IA innovadores en condiciones del mundo real.

Scroll