Carlos B Fernández. El Supervisor Europeo de Protección de Datos (SEPD) ha emitido una declaración en vísperas de la décima y última reunión plenaria del Comité de Inteligencia Artificial (CAI) del Consejo de Europa, en la que se redacta el Convenio Marco sobre Inteligencia Artificial, Derechos Humanos, Democracia y Estado de Derecho propuesto por dicho organismo.
En el mismo, el Supervisor señala que, desde el principio, ha apoyado el objetivo de elaborar el primer instrumento internacional jurídicamente vinculante sobre inteligencia artificial (IA), sobre la base de los estándares del Consejo de Europa en materia de derechos humanos, democracia y Estado de derecho. Por ello, añade que el SEPD ha contribuido sistemáticamente y de manera constructiva al trabajo del CAI, como parte de la delegación de la Unión Europea en dicho Comité, junto con la Comisión Europea y la Agencia de Derechos Fundamentales.
En concreto, recuerda que ya en octubre de 2022 emitió un dictamen formal apoyando la apertura de negociaciones en nombre de la Unión Europea sobre el Convenio, así como dos conjuntos de comentarios escritos, en abril y agosto de 2023, que abordan los aspectos clave del futuro instrumento jurídico.
Riesgo de una aplicación divergente del Convenio
Sin embargo, de cara a la décima y última reunión plenaria del CAI, que se celebrará del 11 al 14 de marzo de 2024, con el objetivo de finalizar los trabajos sobre el Convenio, el SEPD considera importante señalar que el proyecto de Convenio Marco, tal como está ahora, podría resultar una oportunidad perdida para establecer un marco legal sólido y eficaz para el desarrollo y la adopción de una IA confiable.
El SEPD considera que dicho marco no sólo debe ser coherente con los valores europeos y la protección de los derechos y libertades fundamentales de las personas, sino también proporcionar salvaguardias claras y sólidas para las personas afectadas por el uso de sistemas de IA.
Sin embargo, el SEPD entiende, por una parte, que el proyecto de Convenio Marco no será directamente aplicable (autoejecutable) en los Estados parte en el Convenio.
Además, el SEPD también entiende que es necesaria cierta flexibilidad para adaptarse a las especificidades de los sistemas jurídicos nacionales.
Por ello, destaca que le preocupa que el altísimo nivel de generalidad de las disposiciones jurídicas del proyecto de Convenio marco, junto con su naturaleza en gran medida declarativa, conduciría inevitablemente a una aplicación divergente del Convenio, socavando así la seguridad jurídica y, en general, su valor añadido.
En este sentido, el SEPD recuerda que uno de los objetivos clave del futuro instrumento jurídico vinculante debería ser garantizar un marco jurídico común y unas condiciones equitativas para los actores de la IA en Europa y más allá.
El SEPD recuerda además que el Comité de Ministros del Consejo de Europa ha encargado explícitamente a la CAI, en sus términos de referencia, que desarrolle un “instrumento jurídico vinculante de carácter transversal”.
Por ello, considera que una limitación del alcance del futuro Convenio Marco únicamente a las actividades realizadas por autoridades públicas o entidades que actúen en su nombre (excluyendo por tanto, a las entidades privadas), contradiría el objetivo político general del Convenio Marco, tal como lo define el Comité de Ministros.
Ausencia de “líneas rojas”
Por último, el Supervisor destaca que si bien los sistemas de IA pueden ofrecer oportunidades sin precedentes, ciertos usos y actividades de la IA también pueden plantear riesgos muy graves que podrían socavar gravemente la dignidad humana y la autonomía individual, los derechos humanos, la democracia y el Estado de derecho. Y en este sentido el SEPD se muestra profundamente preocupado por la ausencia de "líneas rojas" en el proyecto de Convenio Marco, que desde el principio prohíben las aplicaciones de IA que plantean niveles de riesgo inaceptables. Además, los últimos borradores del Convenio Marco y su Informe Explicativo no ofrecen criterios claros e inequívocos, ni ejemplos específicos de usos prohibidos de la IA que puedan guiar a los Estados miembros a la hora de implementar el futuro Convenio. El SEPD está convencido de que la inclusión en el Convenio de las "líneas rojas", que recibieron un apoyo muy amplio en el Comité ad hoc sobre Inteligencia Artificial (CAHAI), enviaría un fuerte mensaje político y también garantizaría la seguridad jurídica y la previsibilidad necesarias. para desarrolladores, proveedores y usuarios de aplicaciones de IA.
En este sentido, el Supervisor sugiere que el futuro Convenio sobre IA podría seguir el ejemplo del Convenio del Consejo de Europa sobre Derechos Humanos y Biomedicina (Convenio de Oviedo) y su Protocolo adicional sobre la prohibición de la clonación de seres humanos.