Cargando. Por favor, espere

El Parlamento ha introducido unos principios generales aplicables a toda la Inteligencia Artificial, para velar por los derechos fundamentales de los ciudadanos

Protagonistas DATAfórum JUSTICIA 2023: Ibán García del Blanco, Diputado en el Parlamento Europeo

El Parlamento ha introducido unos principios generales aplicables a toda la Inteligencia Artificial, para velar por los derechos fundamentales de los ciudadanos

  • 22-6-2023 | LA LEY
  • En un momento de intensa expectación sobre el contenido de la futura norma europea sobre IA, hablamos con el eurodiputado español más involucrado en la elaboración de su texto, con motivo de su participación en el reciente Data Forum Justicia 2023. Hemos tenido ocasión de conversar con él para conocer de primera mano las novedades más relevantes que se han introducido en el texto del Reglamento, y su opinión sobre diversos aspectos relevantes de la actualidad jurídica relacionada con la tecnología.
Portada

Por Carlos B Fernández.-Iban García del Blanco es eurodiputado español, integrado en el grupo de Socialistas y Demócratas europeos. Como Vicepresidente del Comité de Asuntos Jurídicos del Parlamento europeo, ha tenido una participación muy activa en la elaboración de la propuesta de Reglamento de Inteligencia Artificial (IA) que la cámara acaba de aprobar, para su debate en los trílogos con el Consejo y la Comisión. Entre otras cosas, García del Blanco fue ponente del texto que sirvió de base a la Resolución del Parlamento Europeo, de 20 de octubre de 2020, que dirigió a la Comisión una serie de recomendaciones sobre un marco de los aspectos éticos de la inteligencia artificial (2020/2012(INL)), un texto que ya incluía una Propuesta de Reglamento europeo sobre principios éticos para el desarrollo, el despliegue y el uso de la IA, la robótica y las tecnologías conexas.

Este experto ha participado en el reciente DATAfórum JUSTICIA 2023, organizado por el Ministerio de Justicia, en el que impartió una ponencia sobre «La Política Europea en torno al Dato y la IA: el futuro, los jóvenes». Con este motivo, hemos tenido ocasión de conversar con él para conocer de primera mano las novedades más relevantes que se han introducido en el texto del Reglamento, y su opinión sobre diversos aspectos relevantes de la actualidad jurídica relacionada con la tecnología.

Como declaró tras la aprobación del texto por el Parlamento, García del Blanco considera que la Unión Europea «ha hecho los deberes: ha cumplido con una legislación técnicamente solvente que aborda todos los problemas que se pueden generar con el uso de la inteligencia artificial y que, desde el punto de vista humanístico, pone al ser humano en el centro y trata también de que haya una distribución equitativa de los beneficios que puede generar y que generará con seguridad la inteligencia artificial».

Por ello cree que procede lanzar un mensaje de confianza y de tranquilidad a la ciudadanía: «la Unión Europea toma su propio camino, se hace autónoma y madura, y también marca el camino para el resto del mundo, para ser una brújula en la que puedan mirarse el resto de los países».

¿Cuáles son los cambios más relevantes que ha introducido el Parlamento sobre la propuesta presentada en su día por la Comisión?

En relación con la propuesta de la Comisión, en primer lugar, el Parlamento ha ampliado la realidad regulada por la ley. El concepto mismo de IA es ahora un poco más amplio, lo que creo que aporta mayor seguridad jurídica. Además, hemos insistido en el principio de confianza ciudadana con respecto al uso de Inteligencia Artificial en la Unión Europea. Y, en tercer lugar, hemos añadido un capítulo que para nosotros es esencial, porque tiene que ver con nuestros principios.

En concreto, hemos introducido unos principios generales aplicables a todos los sistemas de IA, que tienen que ver con los derechos y principios fundamentales declarados en la Carta de Derechos Fundamentales y en el Tratado constitutivo de la Unión. Estos principios incluyen aspectos relacionados con la sostenibilidad medioambiental o con la igualdad de género, que, al menos, serán utilizables a la hora de interpretar la norma, o la bondad o no de un sistema.

También hemos introducido requisitos relativos a lo que yo denomino "ilustración digital", como noción orientada a generar una ciudadanía informada, consciente y que sea capaz de adaptarse al cambio que genera la tecnología, de manera independiente del sesgo generacional o de la cualificación técnica. Esto supone que se va a exigir a las instituciones una labor especial de alfabetización de la ciudadanía, para favorecer la comprensión del fenómeno. Y también va a haber obligaciones específicas para los propios proveedores y desarrolladores de los sistemas, para entrenar a los usuarios o hipotéticos usuarios de los mismos, sobre el funcionamiento y las implicaciones que tienen.

A la vez, hemos introducido mayores cautelas en relación con la categoría de sistemas de alto riesgo y con las aplicaciones consideradas prohibidas. Sobre categorías que ya existían hemos tomado una decisión más restrictiva. El ejemplo es el control biométrico en espacios públicos en tiempo real, que se prohíbe.

¿Se va a prohibir, entonces, cualquier uso de los sistemas de reconocimiento facial, en espacios públicos, ya sea por un agente público o privado?

Se va a prohíbir su uso en tiempo real. Es decir, cuando se trate de un control masivo, exhaustivo, en tiempo real de espacios públicos. Al mismo tiempo se ha previsto una salvaguarda, o colchón, para que pueda ser utilizado en cuestiones excepcionales y con autorización judicial. Pero siempre a posteriori.

En fin, creo que el Parlamento, el Parlamento hace un planteamiento más exhaustivo, más amplio, y una aproximación más humanística incluso, que la planteada por la Comisión en un principio, que ya bebía, tengo que decir, de la primera propuesta legislativa que hizo el Parlamento sobre ética aplicada a Inteligencia Artificial.

¿Se han introducido previsiones específicas sobre los grandes modelos de lenguaje, que sirven de base a aplicaciones como ChatGPT?

Por supuesto, hemos introducido una regulación concreta y completa sobre los grandes modelos de lenguaje. Ya había alguna previsión al respecto, introducida por la presidencia francesa del Consejo en cuanto surgieron de manera comercial este tipo de aplicaciones, pero nosotros buceamos de manera mucho más intensa en el tema y planteamos exigencias muy concretas al respecto, que tienen que ver, por ejemplo, con la transparencia o con la creación de un registro para este tipo de aplicaciones.

¿Hasta qué punto el surgimiento del Chat GPT ha condicionado, o ha modificado, el enfoque del Parlamento sobre la propuesta de la Comisión? ¿Ha supuesto algún tipo de cambio en el enfoque y, la comprensión, de la Inteligencia Artificial y sus capacidades?

Yo creo que no, de manera general. Pero sí se ha introducido una particularidad sobre el control de estos sistemas. El principio general, se refiere al control del uso o del hipotético daño que puedan provocar los sistemas de IA. Por ello se establecen una serie de obligaciones ex ante para los desarrolladores, aunque el resto de la regulación se basa en la aplicación concreta que esos modelos puedan tener en un ámbito u otro. Es decir, si se utilizan como parte de un sistema calificado como de alto riesgo, tendrán sus mismas obligaciones. Pero aquí se establecen algunas cuestiones independientemente del uso que se les vaya a dar. Por eso, la propuesta ha sido tan controvertida y tan combatida, tengo que decir, por parte de los desarrolladores. Pero hemos entendido que esta tecnología tan disruptiva y tan potente, e hipotéticamente generadora de tantos riesgos, merecía un control adicional.

¿Hasta qué punto el diálogo entre el legislador europeo y las grandes empresas es complejo? ¿Es fácil entenderse, en un diálogo creativo o es una lucha de titanes?

En principio, creo que el mero hecho de que exista ese diálogo ya es en sí mimo positivo. Además, debo decir que se ha producido un diálogo exhaustivo en cuanto a las diferentes aproximaciones, categorías y formas de relacionarse con el fenómeno de la Inteligencia Artificial. Hemos tenido en cuenta muchísimas opiniones. Yo mismo, personalmente, me he visto con decenas de asociaciones, expertos, empresas, y esto creo que nos ha dado una visión completa de la cuestión. Evidentemente, quienes poseen un producto de estas características, aspiran a tener la menor regulación y el menor tipo de control posible. Y en ese sentido, es obvio y yo diría que hasta natural, que los desarrolladores de este tipo de sistemas sean alérgicos a que se establezcan controles exhaustivos. Pero también creo que ellos mismos eran conscientes de que esto era imposible, por lo menos, en el espacio europeo.

No sé cómo se harán otros lugares, pero evidentemente en Europa tenemos una vis reguladora y ordenadora de la realidad social, independientemente de que estemos off-line u on-line, y, por lo tanto, no podíamos estar ajenos al control de este tipo de sistemas. Creo que esto, al final, es una garantía también para los proveedores, que puede evitar que pasen cosas como lo que ocurrió recientemente en Italia, que dio lugar a que, de repente, se prohibiera la utilización de nuevas tecnologías, como el ChatGPT. Creo que esta era una medida exagerada y, de hecho, se revertió. Por eso creo que la regulación da seguridad jurídica, no solo a los usuarios y a los ciudadanos.

He escuchado en una de las ponencias de esta mañana una precisión sobre esto, en el sentido de que si algo tiene de importante la nueva ley de la IA es que trata a la ciudadanía europea como tal y no como mera consumidora o usuaria. Y en ese sentido, se tienen en cuenta también cuestiones de carácter social. Es decir, puede haber daños que sean de carácter social y no meramente individuales y reclamables en un juzgado, que se tienen en cuenta y que se prevén en la regulación.

En relación con la postura de las grandes tecnológicas ¿qué opinión le merecen opiniones como la del CEO de OpenAI, Sam Altman, cuando dijo que, si la regulación europea es demasiado limitativa para la industria, compañías como la suya se podrían ir de la Unión Europea?

Creo que, en relación con la IA nos movemos entre opiniones del tipo “el mundo se va a acabar mañana” y esta otra opinión. La realidad es que el espacio europeo intenta buscar un cierto equilibrio. Yo le diría a un proveedor o a un desarrollador de IA que defienda esas opiniones que lo tiene muy fácil: que no opere dentro de la Unión Europea. Es decir, si prevé que puede ser bueno para su modelo de negocio no operar en un espacio económico de 500 millones de personas y que cuenta con la mayor seguridad jurídica y con el mayor nivel de vida del mundo, está en su perfecto derecho no estar aquí. Pero, desde luego, quien quiera operar aquí va a tener que cumplir nuestras normas. Y esto es aplicable a estos sistemas de Inteligencia Artificial o a otra clase de productos que quieran desarrollarse y comercializarse dentro de la Unión Europea. Aquí tenemos nuestras normas y tenemos nuestros valores. Si se quiere operar aquí, ya se sabe que se tiene que aclimatar a esos valores.

Ha mencionado usted antes el concepto de “ilustración digital”, como una novedad que ha introducido el Parlamento ¿puede ampliarnos el alcance de esta idea?

En primer lugar, tengo que decir, no sin cierta vanidad, que este fue un concepto que introduje personalmente en la Recomendación del Parlamento sobre ética aplicada a Inteligencia Artificial, de la que fui ponente. Se trata de un intento de trascender a esas referencias tan frecuentes a las competencias digitales o digital skills en los documentos sobre el tema. Porque si, como dicen muchos expertos, estamos ante los albores de la cuarta revolución Industrial, con el carácter disruptivo y de cambio de civilización que va a producir y que, de hecho, ya está produciendo, creo que en sistemas democráticos avanzados la gente tiene derecho a saber de qué estamos hablando, a saber cómo se va a conformar la sociedad, de qué manera les afecta este cambio, y de alguna forma también, cómo domeñar, cómo gobernar ese cambio.

Creo que ese un principio democrático esencial y, en consecuencia, una obligación por parte de los poderes públicos garantizar que exista un conocimiento general sobre este cambio. De la misma forma que no tenemos por qué ser expertos en materia sanitaria o en gestión sanitaria, para saber más o menos qué implica optar por un modelo privado o uno público, en este terreno yo entiendo que tenemos que tener una categorización similar. Y digo más, creo que es una condición sine qua non para prevenir las diferencias entre generaciones, entre personas más cualificadas o menos cualificadas, en lo que se refiere al ejercicio de los derechos y al propio desarrollo en sociedad. Así que, para mí, es un concepto fundamental que bebe, efectivamente, de un concepto clásico, el de ilustración, pero que es mucho más amplio que el tener cuatro conocimientos sobre alguna cuestión.

Por eso la ley prevé una obligación para los poderes públicos y también para los desarrolladores y comercializadores de productos de Inteligencia Artificial en cuanto a su relación con los usuarios.

Precisamente en relación a protección de los usuarios, se había criticado a la propuesta inicial de la Comisión por la falta de medidas para que los ciudadanos pudieran defender sus derechos ante un eventual perjuicio que les causara un sistema inteligente ¿qué medidas ha introducido el Parlamento en ese sentido?

En principio, como he señalado anteriormente, se ha introducido un mandato a los poderes públicos, y se han establecido también cauces de gobernanza. Se supone que, a nivel europeo, la oficina de Inteligencia Artificial será la encargada de establecer cauces de interlocución con la sociedad civil y con los posibles usuarios. Pero, a nivel de ejercicio competencial puro, se trata de una competencia de los estados nacionales, que serán los que tendrán que habilitar esta clase de cauces.

Aquí, en España, por ejemplo, ya se ha creado la Agencia Española de IA, que será la que tenga esta obligación. Pero, creo que hay otra parte del entramado que se irá desarrollando progresivamente. Me refiero a problemas como las dificultades que se tienen, por ejemplo, a la hora de dirimir conflictos ante los juzgados o ante una autoridad pública, precisamente, por la necesidad de tener unos conocimientos básicos mínimos con los que poder, incluso, interpretar a los peritos especializados que puedan intervenir en un conflicto. En este sentido, el texto que ha aprobado el Parlamento, como digo, tiene algunos llamamientos a las administraciones públicas para que establezcan estos canales, pero, en cualquier caso, se tratará de una competencia nacional, más allá de la armonización a nivel europeo que pueda procurar la Agencia Europea.

Se ha cuestionado desde distintos foros el encaje entre el Reglamento de Inteligencia Artificial y el de Protección de Datos ¿Cree qué está bien resuelta la relación entre ambas normas?

Creo que será complejo en un principio, pero no espero que haya ninguna contradicción. Digo más, también vamos a culminar ahora la Ley de Datos, relativa a los datos generados por máquinas, que me parece que es el gran complemento a estas normas, y no encuentro ninguna disonancia entre los tres textos. Creo que cada uno es premisa de los otros.

En relación con las dificultades para encontrar respuesta a cuestiones de índole digital a que se ha referido anteriormente ¿cree que este tipo de actuaciones requeriría la creación de un orden judicial específico en materia digital, como proponen algunos expertos?

No tengo una opinión claramente formada al respecto. Entiendo este planteamiento que usted apunta, pero creo que al final la Inteligencia Artificial es una herramienta que va a operar en el tráfico jurídico habitual. Por ello, habrá cuestiones relacionadas con su uso, como pueden ser las relativas a los seguros, la propiedad intelectual o los derechos de autor, en las que tenga que ser la regulación sectorial en cada uno de esos ámbitos la que tenga que dirimir las cuestiones que se planteen, algunas de ellas nuevas, por la utilización de la Inteligencia Artificial, más allá de que el Reglamento establezca una serie de obligaciones para el uso de este tipo de sistemas. Pienso por ello que puede tener que aplicarse la normativa específica sobre transparencia de la IA en relación con el uso de los datos que se utilizan para entrenar a los algoritmos, pero después aplicar la legislación sectorial para el problema específico.

En consecuencia, puede que para esas cuestiones muy específicas, relativas al puro ámbito puro de la aplicación de la ley de Inteligencia Artificial y de las leyes nacionales que se dicten en desarrollo de ésta, tenga sentido esa jurisdicción especial, pero, por ahora ya digo, tengo mis dudas.

España ha sido el primer estado de la Unión en crear una Agencia Nacional de Inteligencia Artificial. También ha puesto en marcha un espacio de pruebas o sandbox regulatorio y, además, ha sido designada como una de las sedes del Centro Europeo de Transparencia Algorítimica ¿Qué papel cree que va a jugar España en este ámbito?

Yo creo que España está haciendo no sólo los deberes, sino que se está adelantando al resto de países de la Unión Europea en algunas cuestiones. Las que usted ha citado son muy relevantes, muy trascendentes. Por una parte, creo que se ha tomado una decisión correcta muy rápidamente, como ha sido la creación de una Agencia nacional. Además, el modelo de sandbox español va a ser el modelo que se acabe por replicar en el resto de Europa.

Pero, además, hay un proyecto interesantísimo que es el PERTE de la lengua, que intenta impulsar la utilización del español en la programación, porque el idioma que se vaya a utilizar en la programación va a plantear cuestiones decisivas con respecto a la influencia de los países o de los espacios culturales en el mundo de la computación. Evidentemente, a corto plazo no podemos aspirar a que el español compita con el inglés, eso no va a ocurrir en la investigación, pero sí a que primero esté presente y, luego, hipotéticamente pueda ir situándose a un nivel parecido.

En definitiva, creo que en este ámbito España está siendo, de verdad, pionera y muy ágil y, además, no sólo eso, sino que por cuestión de tiempo va a ser quien negocie definitivamente en nombre del Consejo la ley de Inteligencia Artificial. Así que, en fin, nuestra participación está siendo muy notable.

¿Espera que el Reglamento se apruebe este año, en el periodo de presidencia española del Consejo?

Yo estoy seguro de que se va a aprobar durante la presidencia española. Sobre todo, porque no creo que haya muchas diferencias de base entre la posición del Consejo y la del Parlamento. Las dos principales diferencias se encuentran en las excepciones a algunas de las prohibiciones absolutas de uso de sistemas, y en la definición de Inteligencia Artificial, porque el Consejo estaba más en una posición parecida a la que tenía la OCDE y la UNESCO, que es un poco más restrictiva.

Pero, dicho eso, creo que resolveremos esas diferencias, porque en el Parlamento somos muy conscientes de que nuestro texto es muy exigente, por loy que tenemos que tener cierta flexibilidad a la hora de negociarlo.

¿Cree que, como ha apuntado algún medio europeo, se va a intentar por parte del Parlamento acelerar esa entrada en vigor del Reglamento?

En mi opinión, políticamente el texto va a estar negociado y aprobado institucionalmente este mismo año. No creo que haya ninguna razón para que no funcione cuanto antes. Creo que, además, será una buena noticia que funcione cuanto antes mejor.

Por concluir, la Inteligencia Artificial, evidentemente, es un asunto global, no simplemente europeo, y probablemente su regulación requiera un acuerdo internacional, como el que está promoviendo el Consejo de Europa, o los acuerdos que estarían planteándose entre Estados Unidos y la Unión Europea ¿cómo valora esa posible elaboración de un marco internacional global para la IA?

Creo que hay un interés cierto por parte de muchos países del mundo en contar con ese marco internacional, porque los estados lo que buscan es cuanta más certidumbre mejor. Y en esto, no solo incluiría, por supuesto, a los países democráticos, con los que no tendría que ser tan difícil llegar a acuerdos, sino también, a países como China o la India. Y que estemos de acuerdo, al menos, en la necesidad del establecimiento de algunos parámetros muy básicos, es ya un primer paso, aunque no sepamos cuánto tiempo durará.

Hace dos años estuve con una misión del Parlamento europeo en Estados Unidos, donde encontré que este debate estaba prácticamente en pañales. Hace un año estuve allí otra vez y ya se hablaba de neuroderechos y de una carta de derechos digitales, pero poco más. Y, sin embargo, compruebo que este debate sobre la regulación ética de la aplicación de Inteligencia Artificial ya es un debate que está en la conversación pública americana y que va muy rápido, y, de hecho, había quien señalaba que teníamos que acelerar un poco para que no nos pasaran los americanos aprobando muy rápidamente alguna medida al respecto. No creo que eso sea un peligro cierto, pero, en cualquier caso es un dato interesante desde la perspectiva de que parece que ellos también están convencidos de que se necesita una regulación. Sin embargo, también resulta un poco decepcionante ver que, para los norteamercianos, las cuestiones relacionadas con la aplicación de la Inteligencia Artificial prácticamente se sustancian en el ámbito de la competitividad internacional, y, sobre todo, de la carrera tecnológica con China. Este aspecto económico es muy importante y, ojalá, los europeos nos pongamos las pilas, pero creo que la parte humanística es todavía más vital, porque se trata de que puede estar en juego nuestro modelo democrático.

Finalmente ¿le preocupa que, por el interés de alcanzar un acuerdo internacional de ese tipo, se redujera la aspiración de la regulación europea?

Yo no creo que eso pueda pasar y, además, no veo ninguna razón para que ello pase. Que Europa, en nuestro ámbito político territorial, tengamos autonomía y soberanía para decidir lo que queramos, no quiere decir que no nos pongamos de acuerdo con unas características básicas con los demás.

Lo cierto es que, en este tipo de asuntos, quien da primero, da dos veces. Y al haber sido la UE la primera en establecer una regulación omnicomprensiva, creo que vamos a ser al final el patrón, el modelo para todo el mundo, al igual que lo fue en su momento el Reglamento General de Protección de Datos (LA LEY 6637/2016) e incluso países que en principio era muy renuentes a la aplicación y que protestaban mucho, resulta que luego en su regulación estatal, prácticamente mimetizaban el sistema. Yo creo que en relación con la IA va a pasar lo mismo.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll