Ilier Navarro. Uno de los aspectos en los que más énfasis pone el Reglamento de Inteligencia Artificial (LA LEY 16665/2024) (RIA) es el de los sistemas de Inteligencia Articial (IA) de alto riesgo. Tal como señala el texto legal, se requiere un conjunto de normas vinculantes y comunes para regularlos con el fin de proteger los intereses públicos de manera elevada y coherente, sobre todo cuando se relacionan con aspectos de la salud, la seguridad y los derechos fundamentales.
Resulta indispensable abordar este reto con un enfoque basado en los riesgos, de manera que el contenido de las normas se adapte a la intensidad y el alcance de los sistemas de IA de alto riesgo. En este sentido, considera necesario la prohibición de determinadas prácticas que no son aceptables y fijar una serie de requisitos para los sistemas de IA de alto riesgo, así como las obligaciones que deben cumplir los operadores pertinentes, entre ellas, la transparencia en algunos casos concretos.
Todo ello con el objetivo de garantizar que los sistemas de IA de alto riesgo disponibles en la Unión Europea (UE) o cuyos resultados de salida se utilicen en la UE no planteen riesgos inaceptables para intereses públicos reconocidos y protegidos por el Derecho de la Unión.
Sistemas de IA de alto riesgo
La clasificación de un sistema de IA dentro del rango de alto riesgo se limita a los que pueden perjudicar considerablemente a la salud, la seguridad y los derechos fundamentales. Esta definición debe realizarse buscando tener un impacto en la restricción del comercio internacional, tal como señala el texto legal.
El Reglamento también se aplica a los proveedores y responsables del despliegue de sistemas de IA establecidos en un tercer país cuando exista una empresa de la UE que firme un acuerdo con ellos y, por ejemplo, deban tratar datos recabados lícitamente en territorio europeo, en la medida en que los resultados de salida generados por dichos sistemas estén destinados a utilizarse en la Unión.
Clasificación de sistemas de IA de alto riesgo
El RIA establece en su artículo 6 una serie de reglas para la clasificación de sistemas de IA de alto riesgo.
Por una parte, indica que tendrán esta consideración los sistemas que se vayan a utilizar como componente de seguridad de un producto que entre en el ámbito de aplicación de 12 normas (directivas y reglamentos) que compila en el Anexo I o si el propio sistema de IA es uno de dichos productos (hace referencia a sistemas relacionados con la seguridad de los juguetes, embarcaciones de recreo y a las motos acuáticas o sistemas sanitarios de diagnóstico, entre otros) y, junto con lo anterior, si debe someterse a una evaluación de la conformidad de terceros para su introducción en el mercado o puesta en servicio con arreglo a los actos legislativos de armonización de la Unión enumerados en el Anexo I.
Por otra, califica como sistemas de IA de alto riesgo a los que figuran en el Anexo III del RIA. Aquí incluye los sistemas que utilicen la biometría que estén permitidos en la UE, o que se relacionen con infraestructuras críticas; con la educación; empleo y gestión de los trabajadores; servicios públicos y privados considerados esenciales; garantía de cumplimiento del derecho que estén permitidos; migración, asilo y control fronterizo; o con la administración de justicia y procesos democráticos.
Sistemas de IA que no son de alto riesgo
Estos sistemas de IA que se detallan en el Anexo III no se considerarán de alto riesgo si no suponen un riesgo importante de causar un perjuicio a la salud, la seguridad o los derechos fundamentales de las personas físicas. Lo mismo ocurre si no influyen sustancialmente en el resultado de la toma de decisiones. Sin embargo, siempre se considerarán de alto riesgo cuando el sistema de IA efectúe la elaboración de perfiles de personas físicas.
¿Qué ocurre si un proveedor considera que un sistema de IA detallado en el Anexo III no es de alto riesgo? Estará obligado a documentar su evaluación antes de que dicho sistema sea introducido en el mercado o puesto en servicio y deberá registrarlo en una base de datos que creará la Comisión.
La Comisión, una vez haya consultado al Consejo Europeo de Inteligencia Artificial (Consejo de IA), facilitará las directrices que especifiquen la aplicación práctica del artículo 6 que regula los sistemas de IA de alto riesgo, además de una lista exhaustiva de ejemplos prácticos de casos de uso para ofrecer una mayor claridad sobre qué es un sistema de IA de alto riesgo y qué no lo es. Estas directrices deberán estar listas, como muy tarde, el 2 de febrero de 2026, según señala el Reglamento.
El artículo 6 también confirma que la Comisión podrá modificar los apartados que en él se incluyen para añadir o adaptar las condiciones establecidas cuando constate la existencia de sistemas de IA que, aunque se encuadren en el anexo III, no planteen un riesgo importante. También podrá modificar otros apartados si existen pruebas concretas y fiables vinculadas con la necesidad de proteger la salud, la seguridad y los derechos fundamentales.
Con todo, ningún cambio de las condiciones de los sistemas de IA del Anexo III que no son consideradas de alto riesgo reducirá el nivel global de protección previsto en el Reglamento. Además, deberá ser coherente con los actos delegados para modificar los casos de uso (que se regulan en el artículo 7) y siempre deberá tener en cuenta la evolución tecnológica y del mercado.