Cargando. Por favor, espere

El ECAT es el brazo científico que da soporte al legislador europeo para supervisar el funcionamiento de los algoritmos utilizados por las plataformas digitales

Alberto Pena Fernández, Director del Centro Europeo de Transparencia Algorítmica (ECAT)

El ECAT es el brazo científico que da soporte al legislador europeo para supervisar el funcionamiento de los algoritmos utilizados por las plataformas digitales

  • 8-3-2024 | LA LEY
  • El Centro Europeo para la Transparencia Algorítmica, puesto en marcha el pasado 18 de abril, es un organismo de la Comisión Europea, con sede principal en Sevilla, que tiene como objetivo evaluar los riesgos derivados del uso de algoritmos por las plataformas digitales, analizar la transparencia de dichos algoritmos, y proponer nuevos enfoques y mejores prácticas al respecto.
Portada

© Pepo Herrera

Carlos B Fernández. El nuevo marco regulador de la economía digital en la Unión Europea tiene tres claros ejes: los datos, los algoritmos y las plataformas prestadoras de servicios. Tras la amplia regulación de los datos contenida en el Reglamento General de Protección de Datos (RGPD) (LA LEY 6637/2016), el Reglamento del Dato (Data Acta) y el Reglamento de Gobernanza del Dato (Data Governance Act); algoritmos y plataformas son objeto del Reglamento de Servicios Digitales (DSA), del Reglamento de Mercados Digitales (DMA), así como del ya próximo Reglamento europeo de IA.

En concreto, la Ley de Servicios Digitales, que entró plenamente en vigor el pasado 17 de febrero de 2024, prevé un intenso control de los algoritmos de recomendación y moderación de contenidos ofrecidos por las grandes plataformas y los grandes motores de búsqueda online, por medio del establecimiento de una serie de obligaciones de transparencia.

Y para contar con medios que permitan a la Comisión el control de esos algoritmos, el pasado 18 de abril de 2023, la Comisión puso en marcha el Centro Europeo para la Transparencia Algorítmica (ECAT, por su abreviatura en inglés). Se trata de un organismo de la Comisión Europea, dependiente del Centro Común de Investigación (Joint Research Centre, JRC) --el servicio interno de ciencia y conocimiento de la Comisión-- en estrecha colaboración con la Dirección General de Redes de Comunicaciones, Contenidos y Tecnología (DG CONNECT). Su sede principal está en Sevilla, y cuenta con instalaciones complementarias en Ispra (Italia) y Bruselas.

La función de este organismo es contribuir con conocimientos científicos y técnicos a la función exclusiva de supervisión y ejecución que compete a la Comisión Europea en relación con las obligaciones sistémicas de las plataformas en línea de muy gran tamaño (Very Large Online Platforms, VLOPs) y los motores de búsqueda en línea de muy gran tamaño (Very Large Online Search Engines, VLOSEs) previstas en el Reglamento de Servicios Digitales, que exigen auditorías de responsabilidad y transparencia algorítmicas.

Para conocer con más detalle las características, objetivos y funcionamiento de este nuevo organismo, DIARIO LA LEY ha tenido ocasión de conversar con su primer director, Alberto Pena Fernández, un ingeniero de telecomunicaciones con estudios complementarios en la London Business School y el Harvard Kennedy School, que cuenta con larga experiencia en las instituciones europeas.

DIARIO LA LEY. ¿Cuáles son las funciones del ECAT?

Alberto Pena Fernández. El Centro Europeo de Transparencia Algorítmica, ECAT, es un órgano dedicado a dar soporte técnico y científico a las instituciones europeas, en particular para la aplicación de la Ley de Servicios Digitales. Esta norma considera unos aspectos muy técnicos en relación con el trabajo de las plataformas digitales y en este sentido, el ECAT es el brazo científico que da soporte al legislador europeo para supervisarlos o, de otra manera, somos la rama científica de la ley, en una tarea que eventualmente podrá ser aplicable también al Reglamento de Inteligencia Artificial. Se nos puede considerar el aporte científico que necesita la política.

El ECAT se inauguró en abril de 2023, y aunque todavía se encuentra en fase de expansión, está operativo al cien por cien.

Nuestro objetivo se orienta a definir estándares y códigos de conducta para los algoritmos utilizados, e incluye tareas como el análisis de los grandes modelos de lenguaje y el compartir conocimiento, dentro de los límites a los que nos obliga nuestro deber de confidencialidad sobre la información a la que accedemos.

DLL. ¿Qué competencias concretas tiene el ECAT?

APF. Principalmente consisten en crear casos de estudio en relación con los algoritmos que utilizan las plataformas, designando a los expertos adecuados para analizar los riesgos científicos que se plantean en cada caso.

Para ello partimos del análisis de riesgos elaborados por las propias plataformas, con las que mantenemos una relación muy estrecha, fundamentalmente porque hablamos su mismo lenguaje técnico.

Y aunque la mayoría de las empresas colaboran, nosotros asumimos que esa información que nos facilitan puede no ser exhaustiva, por lo que nosotros podemos solicitar información más específica e incluso realizar un análisis independiente.

En nuestro trabajo analizamos muchos factores, bajamos mucho al barro de los problemas.

DLL. ¿Por qué es importante que un algoritmo sea transparente?

APF. Porque cualquier usuario de una plataforma digital debe saber qué puede esperar de ella, debe poder predecir la respuesta que le van a ofrecer, para tener la última palabra al respecto.

Se trata, esencialmente, de evitar la opacidad de las denominadas cajas negras algorítmicas, cuyo funcionamiento no se puede conocer.

Pero hay que tener en cuenta que las plataformas digitales no utilizan un único algoritmo para su trabajo, sino una combinación de ellos, por lo que hay que procurar analizarlos todos.

DLL. ¿Cuáles son las características de un algoritmo transparente?

APF. Debo precisar que el ECAT no certifica si un algoritmo es transparente o no. Nuestro trabajo se ciñe a valorar los algoritmos utilizados por una plataforma en función del objetivo que esta persigue y los riesgos que pueda plantear su uso.

Hoy están surgiendo en el mercado, sobre todo en los Estados Unidos, muchas empresas que ofrecen la certificación de algoritmos. Pero en realidad, por ahora no existen unos estándares al respecto.

DLL. ¿Qué ocurre si un algoritmo utilizado por una plataforma no se considera transparente?

APF. Si el algoritmo no cubre el riesgo que se ha descrito como consecuencia de su uso, el regulador puede pedir al ECAT que realice una inspección algorítmica en el marco de un procedimiento de investigación, a partir de una definición del caso concreto.

Si este concluye con la apreciación de que el riesgo subsiste, el asunto podría acabar en los Tribunales por medio de las evidencias que nosotros facilitamos a los órganos competentes de la

Unión para que su trabajo sea lo más eficiente posible.

Hay que destacar que nosotros desde el ECAT no trabajamos solos, sino que lo hacemos en conexión con otros organismos de la Unión, como soporte a la Dirección General Connect, que es la responsable de la gestión de la Agenda Digital.

DLL. ¿Es lo mismo transparencia algorítmica y explicabilidad algorítmica?

APF. Son dos características que están muy relacionadas, pero no son exactamente lo mismo.

La transparencia tiene que ver con el proceso seguido para llegar a un resultado, de poder conocer y entender cómo se procesa el dato que se introduce en el sistema.

La explicabilidad, en cambio, tiene que ver con el resultado de ese proceso. Se basa en criterios estándar y baja más al detalle. En ese sentido la explicabilidad nos interesa porque nos permite definir estándares.

DLL. ¿Un algoritmo puede ser transparente pero no explicable?

APF. Si eso sucediese, si un algoritmo pudiera considerarse transparente en su proceso, pero no explicable en cuanto a su resultado, es que su resultado, realmente, no es transparente.

Pero debo recordar lo que he señalado anteriormente: las plataformas no utilizan un único algoritmo, sino un ecosistema de algoritmos que hay que considerar en su conjunto.

DLL. ¿Qué debería preocuparnos a los usuarios sobre la actividad de las plataformas digitales?

APF. Creo que todos deberíamos preguntarnos por qué las plataformas nos ofrecen determinados contenidos, si son los que hemos solicitado y si podemos controlar que se nos presenten otros diferentes.

Si no tenemos respuesta afirmativa a esas preguntas, creo que eso debería preocuparnos.

DLL. El ECAT muestra una particular preocupación por la protección de los menores en el entorno digital ¿qué puede decirnos al respecto?

APF. Así es. El Centro se centra en dos aspectos que consideramos fundamentales en relación con este tema. Por una parte, el de la desinformación. Por otro, la protección de la salud e integridad de los menores. Estas son las dos grandes áreas sobre las que nos estamos centrando en estos momentos.

DLL. ¿Cuál será el papel del ECAT en relación con el fututo Reglamento de IA?

APF. Aunque se trata de un papel que no está todavía decidido, pues habrá que esperar a que el Reglamento esté publicado, hay que empezar por decir que el Centro no se orienta tanto a la valoración de la tecnología, como a los riesgos que puede generar su uso.

Nuestro equipo en ECAT cuenta con un conocimiento enorme en el campo de la inteligencia artificial y la transparencia algorítmica. Ya hemos estado dando soporte al desarrollo del reglamento, por ejemplo, analizando documentos técnicos y participando en reuniones técnicas, en lo relativo a la semántica y las definiciones de inteligencia artificial, que son los fundamentos para una base sólida.

En este sentido, habrá que esperar a la definición del marco de trabajo de la Oficina de la IA.

Además, el trabajo de ECAT será importante en la definición de estándares, que van a ser un componente fundamental del desarrollo de esta norma pues se puede considerar que, si se cumplen los estándares, se cumple una parte importante de la ley. La idea es que estos estándares sean útiles también para otras posibles leyes que se desarrollen en otras regiones del mundo, ya que el Reglamento de la IA es la primera que existe en este ámbito.

Se trata de un trabajo por capas que cubre el nivel legislativo, el nivel de soporte y el nivel nacional, con las agencias nacionales. En el caso español esto se traducirá en la relación que mantengamos con la ya creada, aunque todavía en fase de constitución, Agencia Española de Supervisión de la IA (AESIA), que todavía está por definir.

Y esto incluye también la relación con el sandbox regulatorio, con el que colaboramos estrechamente.

DLL. Por último ¿Cómo valora el hecho de que España sea sede del ECAT, de que un español esté al frente de esta institución y de que nuestro país se haya situado en cabeza de los países europeos que antes han establecido un organismo de supervisión de la IA y un sandbox regulatorio para ponerla a prueba?

APF. Creo que ese conjunto de circunstancias supone un espaldarazo para España, un país en el que hay mucho y muy buen talento en relación con la tecnología, pero que se enfrenta al difícil problema de retenerlo, frente a unos países, como los Estados Unidos y las propias grandes compañías tecnológicas, que ofrecen mejores condiciones económicas. Este es un problema que afecta también a otros países, no solo al nuestro.

El riesgo que corremos con ello es construir unas infraestructuras adecuadas, pero carentes de personal adecuado para mantenerlas operativas. Para evitarlo, hacen falta ayudas y crear un tejido científico y social adecuado, porque mientras no podamos competir con los Estados Unidos va a ser difícil.

Evaluar, investigar y difundir conocimiento

Los expertos del ECAT tienen como objetivo evaluar los riesgos derivados del uso de algoritmos por las plataformas digitales, analizar la transparencia de dichos algoritmos, y proponer nuevos enfoques y mejores prácticas al respecto.

En concreto, el Centro está comprometido con una mejor comprensión y una regulación adecuada de los sistemas algorítmicos, por medio de:

- La evaluación e investigación de plataformas

Por medio de la realización de pruebas técnicas de sistemas algorítmicos para comprender mejor su funcionamiento; el análisis de informes de transparencia, evaluaciones de riesgos y auditorías independientes; el apoyo a la investigación; la realización de inspecciones y la definición de procedimientos pertinentes para garantizar el acceso a los datos a reguladores e investigadores.

- La investigación científica y prospectiva

Entre estas tareas se incluye: identificar y medir los riesgos sistémicos asociados a las VLOP y VLOSE; evaluar las medidas de mitigación de riesgos; proponer metodologías prácticas hacia enfoques algorítmicos transparentes y responsables; estudiar el impacto social a largo plazo de los algoritmos, e identificar riesgos emergentes asociados al uso de VLOPs y VLOSEs.

- La creación de redes y comunidades

Para ello, a nivel internacional, centraliza los conocimientos en todo el mundo, compartiendo los principales hallazgos científicos y las mejores prácticas sobre los estudios basados en datos en este ámbito y actuar como centro de conocimientos para las investigaciones realizadas gracias al acceso a los datos proporcionados por la DSA.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll