El martes 13 de febrero, las comisiones de Mercado Interior (IMCO) y Libertades Civiles (LIBE) de Parlamento Europeo han aprobado el resultado de las negociaciones con los Estados miembros sobre el Reglamento de Inteligencia Artificial (Ley en la nomenclatura de la Unión).
Con las nuevas medidas introducidas en la negociación, se incorpora la prohibición de los sistemas de IA de puntuación social y los utilizados para manipular o explotar las vulnerabilidades de los usuarios; se introducen obligaciones sobre la inteligencia artificial de propósito general; se limita el uso de sistemas de identificación biométrica por parte de las autoridades; y se refuerza el derecho de los consumidores a presentar quejas y obtener explicaciones significativas sobre las decisiones que les afecten.
Con esto ya solo queda pendiente la ratificación de la aprobación por el COREPER y el por el Pleno del Parlamento Europeo, los días 10 y 11 de abril.
Aplicaciones prohibidas
El acuerdo prohíbe determinadas aplicaciones de IA que amenazan los derechos de los ciudadanos como los sistemas de categorización biométrica basados en características sensibles, la extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para alimentar bases de datos de reconocimiento facial, el reconocimiento de emociones en el lugar de trabajo y las escuelas, la puntuación social y la vigilancia policial predictiva basada únicamente en perfilar a una persona o evaluar sus características, y la IA que manipula el comportamiento humano o explota las vulnerabilidades de las personas.
Exenciones a la prohibición del uso de la identificación biométrica por las fuerzas de seguridad
El uso de sistemas de identificación biométrica por parte de las fuerzas del orden está prohibido en principio, excepto en situaciones enumeradas exhaustivamente y definidas de forma estricta. La identificación biométrica remota “en tiempo real” sólo puede implementarse bajo estrictas salvaguardias, por ejemplo, limitadas en tiempo y alcance geográfico, con autorización judicial o administrativa previa. Estos usos implican, por ejemplo, buscar a una persona desaparecida o prevenir un ataque terrorista. El uso de estos sistemas a posteriori (post-remota), que se considera de alto riesgo, también requiere autorización judicial y debe estar vinculado a un delito penal.
Obligaciones para sistemas de alto riesgo
También se acordaron obligaciones claras para otros sistemas de IA de alto riesgo, que podrían afectar significativamente a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho. Los usos considerados de alto riesgo incluyen el ámbito de las infraestructuras críticas, la educación y la capacitación profesional, el empleo, los servicios esenciales (por ejemplo, atención médica, banca), ciertos usos por las fuerzas de seguridad, la gestión de migración y fronteras, la justicia y los procesos democráticos (por ejemplo, la capacidad de influir en las elecciones). Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.
Modelos de IA propósito general
Los sistemas de IA de propósito general (GPAI), y los modelos en los que se basan, deben cumplir ciertos requisitos de transparencia y cumplir con la ley de derechos de autor de la UE durante su capacitación. Los modelos GPAI más potentes que podrían plantear riesgos sistémicos deberán cumplir determinados requisitos adicionales, incluida la realización de evaluaciones de modelos, evaluaciones de riesgos e informes sobre incidentes. Además, el contenido de imágenes, audio o vídeo artificiales o manipulados (“deepfakes”) debe etiquetarse claramente como tal.
Medidas de apoyo a la innovación y a las pymes
Se establecerán entornos de prueba regulatorios y pruebas en el mundo real a nivel nacional, ofreciendo a las pymes y a las empresas emergentes oportunidades para desarrollar y capacitar IA innovadora antes de su comercialización.
Próximos pasos
El texto espera una adopción formal en una próxima sesión plenaria del Parlamento y el respaldo final del Consejo.
Será plenamente aplicable 24 meses después de la entrada en vigor, excepto las prohibiciones de prácticas prohibidas, que se aplicarán 6 meses después de la entrada en vigor; códigos de práctica (nueve meses después de su entrada en vigor); normas de IA de uso general, incluida la gobernanza (12 meses después de la entrada en vigor); y obligaciones para sistemas de alto riesgo (36 meses).