Cargando. Por favor, espere

«Sobre las decisiones automatizadas en el ámbito laboral y el derecho a la privacidad de los trabajadores»

Sobre las decisiones automatizadas en el ámbito laboral y el derecho a la privacidad de los trabajadores

Elena Álvarez Fernández

Abogada y Fundadora de Triplee Law Services

Diario LA LEY, Nº 10587, Sección Doctrina, 14 de Octubre de 2024, LA LEY

LA LEY 25200/2024

Normativa comentada
Ir a Norma Carta (Derechos Fundamentales de la Unión Europea)
Ir a Norma Regl. 2016/679 UE, de 27 Abr. (protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE -Reglamento general de protección de datos-)
Ir a Norma Directiva 89/391 CEE del Consejo, de 12 Jun.1989 (medidas para promover la mejora de la seguridad y la salud de los trabajadores)
  • SECCIÓN 2ª. Obligaciones de los empresarios
    • Artículo 6. Obligaciones generales de los empresarios.
Ir a Norma LO 3/2018 de 5 Dic. (Protección de Datos Personales y garantía de los derechos digitales)
Ir a Norma LO 15/1999 de 13 Dic. (protección de datos de carácter personal)
Ir a Norma RDLeg. 2/2015 de 23 Oct. (texto refundido de la Ley del Estatuto de los Trabajadores)
Ir a Norma V Acuerdo para el Empleo y la Negociación Colectiva 2023-2025 (R Trabajo 19 May. 2023)
Ir a Norma R Parlamento Europeo 15 Jun. 2017 (sobre las plataformas en línea y el mercado único digital -2016/2276(INI)-)
Comentarios
Resumen

En pleno 2024, el uso del algoritmo en las relaciones laborales está tan normalizado como la pausa del café. En este sentido, no es extraño que la primera toma de contacto se produzca incluso antes de firmarse el contrato. Los trabajadores, en ese momento, candidatos, se enfrentan «indefensos» a cómo el avance o no de su candidatura está cada vez más determinado por la utilización del algoritmo. Posteriormente, una vez ya incorporados a la plantilla, observan estupefactos cómo la evaluación de su trabajo a efectos de beneficiarse de un bonus, la asignación de clientes o turnos, o, incluso, la decisión sobre su ascenso puede ser adoptada automáticamente. Su generalización actual conlleva un giro significativo en el mercado laboral con respecto a la situación previa a la pandemia, cuando su utilización se consideraba casi «signo distintivo» de las plataformas digitales como UBER y GLOVO y sus únicos afectados, sus trabajadores.

Lo razonable sería pensar que el legislador tanto estatal como comunitario ha plasmado a nivel regulatorio esta realidad. Sin embargo, «el denominador común» es muy distinto, existiendo importantes lagunas legislativas. A nivel estatal, continuamos con un Estatuto de los Trabajadores que no aborda esta cuestión; las únicas respuestas y, genéricas, se han recogido en algunos Convenios Colectivos. Por otro lado, a nivel europeo, se pueden observar dos propuestas legislativas sobre esta realidad. En primer lugar, el pasado 11 de marzo de 2024, se produjo el acuerdo provisional de los ministros de Empleo y Asuntos Sociales de la Unión Europea sobre la futura aprobación de la Directiva relativa al trabajo en plataformas digitales. Esta Directiva supone el primer intento de la Unión Europea de regir la gestión algorítmica del lugar del trabajo si bien sólo para los trabajadores de las plataformas digitales, con la consiguiente asimetría regulatoria que comporta para los restantes trabajadores. En segundo lugar, la propuesta de Reglamento de la Inteligencia Artificial donde se aborda este punto, pero limitadamente; simplemente se configura un régimen jurídico especial para estos sistemas de inteligencia artificial en la medida en que afectan a un sistema calificado como de riesgo grave según dicho texto.

En dicho contexto, el objeto de este presente trabajo es analizar las dos propuestas comunitarias críticamente. Asimismo, plantear si al igual que ha ocurrido en el Reino Unido debería de promoverse algún tipo de iniciativa popular para promover su regulación, aunque provenga de sindicatos. Finalmente, y hasta en cuanto esta regulación homogeneizadora no se produzca, cuáles son las soluciones que pueden promoverse por las empresas de cara a salvaguardar el derecho fundamental a la privacidad de sus trabajadores.

Palabras clave

Algoritmo, decisiones automatizadas, RGPD, Convenios Colectivos, Evaluaciones de impacto, Códigos de Conducta, trabajadores de plataformas, Reglamento de IA

Abstract

In the midst of 2024, the use of algorithms in labor relations is as standardized as the coffee break. In this sense, it is not surprising that the first contact is made even before the contract is signed. The employees, at that moment candidates, are «helplessly» confronted with how the progress or otherwise of their candidacy is increasingly determined by the use of the algorithm. Subsequently, once they have joined the workforce, they are astonished to see how the evaluation of their work for the purpose of receiving a bonus, the assignment of clients or shifts, or even the decision on their promotion can be taken automatically. Its current generalization entails a significant turnaround in the labor market with respect to the situation prior to the pandemic, when its use was considered almost a «distinctive sign» of digital platforms such as UBER and GLOVO and the only ones affected, their workers.

It would be reasonable to think that both Spain and the European Union have reflected this reality at the regulatory level. However, «the common denominator» is very different, with significant legislative gaps. At the national level, we continue to have a Workers» Statute that does not address this issue; the only generic answers have been included in some Collective Bargaining Agreements. On the other hand, at the European level, two legislative proposals on this reality can be observed. Firstly, on March 11, 2024, there was a provisional agreement of the Ministers of Employment and Social Affairs of the European Union on the future approval of the Directive on work on digital platforms. This Directive represents the first attempt by the European Union to govern the algorithmic management of the workplace, albeit only for workers on digital platforms, with the consequent regulatory asymmetry that this entails for other workers. Secondly, the proposal for a Regulation on Artificial Intelligence addresses this point, but only to a limited extent; it simply sets up a special legal regime for these artificial intelligence systems insofar as they affect a system classified as a serious risk according to this text.

In this context, the purpose of this paper is to analyze the two community proposals critically. Likewise, to consider whether, as has happened in the United Kingdom, some kind of popular initiative should be promoted to promote their regulation, even if it comes from trade unions. Finally, and until such time as this homogenizing regulation does not take place, what solutions can be promoted by companies in order to safeguard the fundamental right to privacy of their workers.

Keywords

Algorithm, automated decisions, GDPR, Collective Bargaining Agreements, Impact Assessments, Codes of Conduct, platform workers, IA Regulation

Portada

I. La privacidad de los trabajadores en nuestro derecho interno

No se puede entrar en el fondo del objeto del presente artículo sin realizar una breve exposición sobre cómo nuestro ordenamiento jurídico contempla a día de hoy la protección de la privacidad de los trabajadores en el ámbito laboral. De la regulación se extraen dos grandes conclusiones. En primer lugar, el articulado es bastante genérico y sujeto a una fuerte interpretación casuística y jurisprudencial con el consiguiente riesgo e inseguridad jurídica para el trabajador. En segundo lugar, la referencia a las decisiones automatizadas es inexistente más allá de algún Convenio Colectivo y una pequeña referencia en el Real Decreto Legislativo 2/2015, de 23 de octubre, por el que se aprueba el Texto Refundido de la Ley del Estatuto de los Trabajadores (LA LEY 16117/2015) (en adelante, «Estatuto de los Trabajadores (LA LEY 16117/2015)» o «ET»); evidenciando que no está actualizada a los nuevos sistemas tecnológicos que son los compañeros de viaje en la supervisión, evaluación, selección y toma de decisiones por parte de los empresarios con respecto a sus trabajadores.

El Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 (LA LEY 6637/2016), relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (en adelante, «RGPD») recogió por primera vez el derecho a la protección de los datos personales en el campo de las relaciones laborales, en concreto: en su artículo 88 y en el considerando 155 de la Exposición de Motivos. Cómo tienen que adoptarse las decisiones automatizadas en el campo laboral según la normativa comunitaria se estudiará con más detalle en el punto segundo del presente trabajo. No obstante, a grandes rasgos, los principios que lo presiden son el control humano y la transparencia algorítmica.

La normativa comunitaria es bastante escueta en lo que respecta a la protección de los datos personales de los trabajadores frente al poder de dirección del empresario

A grandes rasgos, la normativa comunitaria es bastante escueta en lo que respecta a la protección de los datos personales de los trabajadores frente al poder de dirección del empresario. Esta parquedad tiene como su máximo exponente al artículo 88 RGPD (LA LEY 6637/2016) que encomienda a los Estados Miembros el establecimiento de normas específicas para proteger los derechos y libertades de las personas trabajadoras en relación a este punto. En este sentido, el legislador comunitario ha optado por otorgar un gran poder a los países pudiendo traducirse en una gran disparidad normativa en un punto que resulta clave tanto para garantizar la unidad del mercado comunitario como la salvaguarda de un derecho fundamental de la Carta de los Derechos Fundamentales de la Unión Europea (LA LEY 12415/2007) (en adelante, «CDFUE») (artículo 8 apartado 3).

En España, la referencia legal genérica al campo de la protección de datos personales en entornos laborales se recoge en algunos artículos ubicados dentro del Título X de la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y Garantía de los Derechos Digitales (LA LEY 19303/2018) (en adelante, «LOPD»). Como señalan muchos (1) , no se presentan un catálogo de derechos digitales exhaustivamente, sino que el legislador optó por plasmar la doctrina jurisprudencial existente con anterioridad a su entrada en vigor. En concreto, se reconocieron los siguientes puntos: a) el derecho a la intimidad de los trabajadores en relación al uso de los dispositivos digitales en la empresa (artículo 87 LOPD); b) su derecho a la desconexión digital (artículo 88 LOPD); c) su derecho a la intimidad con respecto al uso de dispositivos de videovigilancia y de grabación de sonidos (artículo 89 LOPD) y; d) la delimitación de un marco legal con respecto a la utilización de sistemas de geolocalización en el ámbito laboral. El legislador, consciente de su escasez regulatoria, habilita a mejorar este marco por la vía de los Convenios Colectivos (artículo 91 LOPD).

En definitiva, se arbitra una regulación escueta sobre unas cuestiones ya de vital importancia en el momento en el que vio la luz este texto normativo —año 2018— dando pie a que su concreción y adaptación a la realidad práctica se configure tanto a través de los pronunciamientos jurisprudenciales como de los Convenios Colectivos; el resultado, lógicamente, una caja de Pandora. Por un lado, los derechos digitales de los trabajadores en la esfera de la protección de sus datos, de su intimidad, puedan fluctuar y bastante en función del tipo de sector económico en el que desarrollen su actividad laboral y, asimismo, de si su empresa por su tamaño tenga o no su propio Convenio Colectivo. En contraposición con lo anterior, en cambio, una situación donde los trabajadores quedan abandonados a su suerte sin un texto regulatorio sobre estas cuestiones más allá de los parámetros mínimos de la LOPD y completamente dependientes de cómo se vaya construyendo su marco de protección por parte de los Tribunales tanto en España como en la Unión Europea.

De la lectura de los últimos Convenios Colectivos publicados en el BOE (en adelante, «BOE») o en sus equivalentes autonómicos, el listado de Convenios Colectivos que han entrado en la materia, y concretamente, en relación a la utilización de algoritmos en el campo laboral es aún escaso (2) . A modo ejemplificativo se puede citar el Convenio Colectivo para los Establecimientos Financieros de Crédito que cuenta con un artículo específico en relación a los derechos de la inteligencia artificial. En concreto, su artículo 35. En su primer párrafo, subraya cómo el empleo de nuevas herramientas basadas en los algoritmos efectivamente puede aportar valor hacia una gestión más eficiente de las empresas. Sin embargo, su implantación ha de ser cuidadosa en el ámbito de las personas afectadas. Por ello, los trabajadores no pueden ser objeto de decisiones basadas única y exclusivamente en variables automatizadas salvo en los supuestos previstos por la ley. Asimismo, proclama el derecho a no ser discriminado en relación con las decisiones y procesos cuando aquellos estén basados únicamente en algoritmos pudiendo solicitar el concurso e intervención de determinadas personas designadas por la empresa. Por otro lado, su párrafo segundo describe cómo las empresas del sector que utilicen en este tipo de tecnología deberán informar a los representantes de los trabajadores sobre su utilización en la toma de decisiones. En dicha comunicación deberá de delimitarse la siguiente información: los datos que nutren los algoritmos la lógica de su funcionamiento y la evaluación de los resultados.

La regulación de esta problemática por la vía de los Convenios Colectivos se arbitra como «el morus operandi» hasta en cuanto se apruebe una regulación al respecto. La relevancia de los algoritmos en las relaciones laborales es indudable. Así se evidenció recientemente en el V Acuerdo para el Empleo y la Negociación Colectiva (LA LEY 7738/2023) adoptado en la resolución de 19 de mayo de 2023 de la Dirección General de Trabajo. En dicho acuerdo, se fijan las pautas mínimas que regirán las negociaciones colectivas durante el período temporal de 2023 a 2025. En concreto, para la inteligencia artificial han delimitado lo siguiente. En su artículo tercero, subrayan cómo la inteligencia artificial de manera progresiva tendrá un impacto significativo en el mundo laboral y, si no se hace un uso correcto y transparente, podría llevar a adoptar decisiones sesgadas o discriminatorias relativas a las relaciones laborales. En este sentido, la negociación colectiva debe desempeñar un papel fundamental estableciendo criterios que garanticen un uso adecuado de la inteligencia artificial y sobre el desarrollo del deber de información periódica a la representación de los trabajadores.

Finalmente, en esta sucinta revisión legal a nivel nacional, concluimos con el Estatuto de los Trabajadores (LA LEY 16117/2015). En línea con lo anterior, no establece ninguna regulación más allá de lo dispuesto en el punto cuarto del artículo 64 del citado texto donde fija dentro del contenido del derecho de información al Comité de Empresa el relativo al ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles.

En definitiva, ante la generalización del algoritmo en nuestro día laboral y la sensibilidad de los derechos que entran en juego con su implementación, no deja de ser tanto sorprendente como desconcertante que a día de hoy el esquema regulatorio sea el expuesto anteriormente. Hasta una regulación que entre en el fondo de la problemática, no quedará otro remedio que implementar algunas soluciones que se expondrán en el punto sexto del presente artículo.

II. Sobre la adopción de decisiones automatizadas: el artículo 22 del Reglamento General de Protección de Datos Personales y la Evaluación de Impacto

Avanzando en la exposición del artículo, el siguiente punto pasa por analizar si es posible o no la adopción por parte del empresario de decisiones basándose exclusivamente en algoritmos que tengan un impacto en la relación laboral del trabajador. Igualmente, cuáles son los límites legales a los que se enfrenta y, en contraposición a aquellos, las garantías arbitradas en favor de los trabajadores. En relación a la adopción de decisiones automatizadas a partir de algoritmos y prescindiendo de cualquier control humano, su respuesta jurídica se recoge en el artículo 22 del RGPD (LA LEY 6637/2016); artículo extensible a la esfera laboral. Antes de analizar su contenido y cómo opera para este tipo de relaciones jurídicas, resulta fundamental reproducir el contenido literal del mismo, así:

«Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar.

2. El apartado 1 no se aplicará si la decisión:

a) es necesaria para la celebración o la ejecución de un contrato entre el interesado y un responsable del tratamiento;

b) está autorizada por el Derecho de la Unión o de los Estados miembros que se aplique al responsable del tratamiento y que establezca asimismo medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado, o;

c) se basa en el consentimiento explícito del interesado.

3. En los casos a que se refiere el apartado 2, letras a) y c), el responsable del tratamiento adoptará las medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado, como mínimo el derecho a obtener intervención humana por parte del responsable, a expresar su punto de vista y a impugnar la decisión.

4. Las decisiones a que se refiere el apartado 2 no se basarán en las categorías especiales de datos personales contempladas en el artículo 9, apartado 1, salvo que se aplique el artículo 9, apartado 2, letra a) o g), y se hayan tomado medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado».

De su lectura se extrae el principio general de que el empresario no puede adoptar decisiones de forma exclusivamente automática, incluida la elaboración de perfiles, cuando como consecuencia de estas se produzcan un efecto jurídico o se le afecte significativamente de modo similar. Trasladando dicha conclusión a la esfera laboral, en teoría, a través de la utilización exclusiva de algoritmos no pueden adoptarse decisiones tales como el despido de un trabajador. Si bien puede pensarse que la prohibición o salvaguarda que el legislador comunitario quiere reflejar es clara, la realidad es muy distinta. Evidentemente, del tenor literal de dicha redacción se desprenden dos grandes ambigüedades interpretativas: por un lado, cuándo entendemos que una decisión ha sido adoptada exclusivamente de modo automático y, por otro lado, cuándo se puede afirmar que esta decisión acarrea un efecto jurídico o una afección significativa. El Reino Unido (3) , en su día, cuestionó bastante dicha ambigüedad y se planteó su erradicación. Finalmente, sin embargo, esta iniciativa no prosperó (4) .

La redacción del artículo 22 RGPD (LA LEY 6637/2016) más allá de ser vaga y ambigua, con la consiguiente inseguridad jurídica e indefensión que lleva aparejada, cuenta con una serie de excepciones: a) si es necesaria para la ejecución de un contrato; b) está autorizada por el Derecho de la Unión o de los Estados miembros o; c) se basa en un consentimiento explícito. La excepción de la necesidad contractual es especialmente relevante en relación a las relaciones laborales ya que los empresarios suelen basarse en ella para implantar sistemas de gestión algorítmica. En este sentido, la admisibilidad de esta excepción ha sido reconocida expresamente por el Grupo de Trabajo del artículo 29 (5) (GT Art. 29 —actual Comité Europeo de Protección de Datos—) de cara a que, si un empresario procesa una gran cantidad de datos de miles de solicitantes de empleo, pueda justificar la utilización de un proceso de selección íntegramente automatizado.

A pesar de lo anterior, el empresario no cuenta con una libertad plena y desprovista de ninguna garantía en lo que respecta a la implementación de estas decisiones exclusivamente automatizadas. Así pues, siempre que justifique aquellas en una necesidad contractual o en el consentimiento explícito del trabajador, deberá implementar unas garantías específicas con arreglo a lo dispuesto en el apartado tercero del artículo 22 RGPD (LA LEY 6637/2016). Para equilibrar la balanza de los interese en juego, se reconoce a los trabajadores el siguiente listado de derechos: a) el derecho a obtener la intervención humana; b) el derecho a expresar su punto de vista; c) el derecho a impugnar la decisión; y; d) el derecho a obtener una explicación de la decisión adoptada (apartado tercero del artículo 22 RGPD (LA LEY 6637/2016)).

Habitualmente el empresario no es el responsable de la gestión de la automatización de las decisiones de sus relaciones laborales, sino que confía en un tercero a quien encarga su ejecución;

No obstante, estas garantías plantean una serie de problemas prácticos en distintas esferas. Una de ellas es la relativa a contrarrestar el razonamiento de dicha decisión unida a la comprensión de los baremos que han sido seguidos para alcanzar dicho resultado. La dificultad se evidencia en la medida en que habitualmente el empresario no es el responsable de la gestión de la automatización de las decisiones de sus relaciones laborales, sino que confía en un tercero a quien encarga su ejecución; en otras palabras, son servicios que se externalizan a algún proveedor de software de inteligencia artificial. Asimismo, otro punto plantea suspicacias es el relativo al derecho a obtener una mínima intervención humana. En este sentido, ¿cuál es el baremo mínimo para entender que se ha ofrecido suficientemente dicha garantía y, por otro lado, en qué punto concreto del proceso de decisión debe ofrecerse aquella?

Si el régimen anterior ya es complejo y ambiguo, hay que añadir cómo a su vez las excepciones resaltadas en los párrafos anteriores están sujetas, por su parte, a otra excepción que viene descrita en el apartado cuarto del artículo 22 RGPD (LA LEY 6637/2016). En este sentido, no será posible su aplicación cuando las decisiones se basan en categorías especiales de datos personales, en concreto, a los que se refiere el artículo 9, apartado 1, del RGPD; es decir, a los datos sensibles según el RGPD. Aunque a simple vista esto implicaría la prohibición completa de decisiones totalmente automatizadas basadas en datos sensibles, existe un matiz a esta última, así: las decisiones exclusivamente automatizadas basadas en categorías especiales de datos podrían estar justificadas por el consentimiento explícito o por razones de interés público importantes basadas en la legislación de la Unión o de los Estados Miembros. En definitiva, incluso en relación a la adopción de decisiones laborales que puedan tener algún tipo de afección a datos sensibles, la prohibición de su íntegra automatización está sujeta a matices y ambigüedades.

En el momento de publicación del RGPD, el legislador comunitario era consciente de que el empleo de nuevas tecnologías —en aquel momento, el incipiente desarrollo de la inteligencia artificial— podría entrañar altos riesgos para los derechos y libertades de las personas físicas. Ante dicha situación, expuso en el artículo 35 del RGPD (LA LEY 6637/2016) cómo en dichos supuestos el responsable del tratamiento realizará, justo antes del tratamiento, una evaluación del impacto de las operaciones de tratamiento en la protección de los datos personales. El contenido mínimo de dicha evaluación se detalla en el apartado séptimo de dicho artículo: a) una descripción sistemática de las operaciones de tratamiento previstas y de los fines del tratamiento, inclusive, cuando proceda, el interés legítimo perseguido por el responsable del tratamiento; b) una evaluación de la necesidad y la proporcionalidad de las operaciones de tratamiento con respecto a su finalidad; c) una evaluación de los riesgos para los derechos y libertades de los interesados y, finalmente d) las medidas previstas para afrontar los riesgos, incluidas garantías, medidas de seguridad y mecanismos que garanticen la protección de datos personales, y a demostrar su conformidad con el RGPD.

En relación a esta evaluación de impacto, no se contempla ningún requisito adicional para el campo de las relaciones laborales nada más que a dicha situación le resultaría de aplicación el matiz dispuesto en el apartado 9 del artículo 35. Según dicho apartado, el responsable del tratamiento recabará la opinión de los interesados, en este caso, de los trabajadores o de sus representantes en relación con el tratamiento previsto. Sin embargo, luego establece un matiz que merma dicha garantía cuando precisa que esto será de aplicación sin perjuicio de la protección de intereses públicos o comerciales o de la seguridad de las operaciones de tratamiento. Con esta configuración no es extraño que se hayan emitido críticas (6) . En concreto, se achaca que dependerá de la voluntad de empresario el decidir o no realizar una consulta a los trabajadores o a los representantes y, por otro lado, que perfectamente estas consultas pueden ser restringidas por motivos tan amplios como la salvaguarda de los intereses comerciales del empresario, aunque ello sea en detrimento del derecho fundamental a la privacidad de sus trabajadores.

Otra garantía arbitrada por el legislador comunitario en relación a estas evaluaciones de impacto en aras a velar por el respeto a los derechos fundamentales, en este caso, de los trabajadores se contempla en el artículo 36 del RGPD (LA LEY 6637/2016). Este artículo obliga a los empresarios a consultar a la autoridad nacional de control antes del tratamiento —en España, la Agencia Española de Protección de Datos (en adelante, la «AEPD»)—, cuando una evaluación de impacto indique que el tratamiento entrañaría un alto riesgo y cuando no pueda abordar suficientemente estos riesgos. Si el empresario no efectúa la consulta, la AEPD puede adoptar medidas coercitivas. A simple vista, de la lectura de este precepto. se abre la oportunidad de un escrutinio independiente de las herramientas de gestión algorítmica. Sin embargo, hay varios factores que podrían socavar su eficacia práctica. En este sentido, el empresario está obligado a solicitar la consulta previa de la autoridad supervisora sólo cuando la primera no pueda encontrar una medida suficiente para mitigar el riesgo. Así pues, este enfoque deposita mucha confianza en el empresario, sin incentivos para solicitar la consulta.

En definitiva, en relación a la adopción de decisiones exclusivamente automatizadas por el empresario que puedan tener un impacto significativo en la relación laboral para el trabajador se evidencia que aunque se hayan arbitrado mecanismos de control y garantía a su favor —véase garantizar un control humano, la justificación de la decisión y habilitación a manifestar una discrepancia— no es oro todo lo que reluce; cuenta con serias lagunas que ponen en una situación de debilidad al trabajador frente al poder de dirección del empresario. Por su parte, la garantía previa de evaluación de impacto tampoco es la varita mágica para resolver todos los males; al final se deja en manos completamente del empresario el decidir o no acudir a la AEPD o consultar a los representantes de los trabajadores.

III. La propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la mejora de las condiciones laborales en el trabajo en las plataformas digitales: sobre la utilización de los algoritmos

Como mencioné al inicio de este artículo, el pasado 11 de marzo de 2024 se produjo el acuerdo provisional de los ministros de Empleo y Asuntos Sociales de la Unión Europea sobre la futura aprobación de la Directiva relativa al trabajo en plataformas digitales (en adelante, «DTPD»). De una lectura estricta podríamos pensar que el objeto de este texto normativo es regular exclusivamente las condiciones laborales de los trabajadores de estas plataformas digitales. Sin embargo, la realidad es muy distinta; cuenta con una gran relevancia jurídica al tratarse de la primera vez que el legislador comunitario ha entrado a fijar un marco jurídico para la gestión algorítmica en la esfera laboral. Las siguientes etapas que seguirá será su traducción a todas las lenguas oficiales de los Estados Miembros y, finalmente, su adopción tanto por el Parlamento Europeo como por el Consejo. Tras su aprobación, los Estados Miembros dispondrán de un plazo de dos años para realizar su transposición al ordenamiento interno (7) .

Entrando en el fondo del análisis de la gestión algorítmica, el Capítulo III de la DTPD aborda precisamente esta cuestión. Como menciona expresamente el Preámbulo de este texto, el objetivo es la regulación de los derechos relacionados con la gestión algorítmica en el trabajo en plataformas digitales de cara que puedan mejorarse las condiciones laborales de aproximadamente veintiocho millones de personas además de dotar de una mayor transparencia el uso de la inteligencia artificial en el lugar del trabajo. Es destacable, que, con respecto al texto original de 2021, se han producido una serie de cambios en el texto aprobado el pasado 11 de marzo de 2024 (8) .

Su artículo 7 (9) inicia la exposición. En garantía a su vez del trabajador se establecen unos límites en relación al tratamiento de sus datos personales cuando no estén intrínsicamente relacionados con la prestación del trabajo, particularmente: a) está prohibido el tratamiento de datos relativos a las salud psicológica o emocional del trabajador; b) la limitación del tratamiento de datos personales vinculados a conversaciones privadas; c) a su vez, el relativo a datos personales que puedan predecir el ejercicio de los derechos fundamentales como el derecho de asociación, el derecho de negociación y a la acción colectivas o el derecho a la información y consulta; d) asimismo, la prohibición de tratar datos personales de los que se pueda deducir el origen racial o étnico, la situación migratoria, las opiniones políticas, las convicciones religiosas o filosóficas, la discapacidad, el estado de salud, en particular las enfermedades crónicas o el VIH, el estado emocional o psicológico, la afiliación sindical, la vida sexual o la orientación sexual de una persona; e) la prohibición de tratar datos biométricos, y finalmente; f) la prohibición de recopilar datos fuera del horario de trabajo. Esta última precisión es muy importante en la medida que garantiza que no puedan ser objeto de ninguna geolocalización tras registrar que ya no están prestando sus servicios para la plataforma digital, evitando, por ende, abusos por parte del empresario. Es destacable que inicialmente la propuesta de 2021 no incluía los puntos c), d) y e), los cuales, han sido incorporados finalmente en el texto aprobado el pasado once de marzo de 2024. Efectivamente, su introducción ha resultado un acierto a la hora de reforzar la protección de datos que tienen la categoría de datos sensibles en la esfera del RGPD como los relativos a la salud, origen étnico, opiniones políticas o los biométricos.

Prosigue su regulación con el artículo 8 de la DTPD. La redacción actual de dicho artículo mejora significativamente la redacción del anterior artículo 7 de la propuesta de 2021 que venía a hablar de un control humano ambiguo (10) . En concreto, la redacción actual enfatiza cómo la utilización de sistemas automatizados de supervisión y de toma de decisiones es un tipo de tratamiento de datos que efectivamente puede implicar un elevado riesgo para los derechos y libertades de los trabajadores. En consecuencia, el responsable del tratamiento a la hora de efectuar la evaluación de impacto prevista en el artículo 35 del RGPD (LA LEY 6637/2016) y, de la que hablamos en el punto segundo del presente artículo, deberá de recabar la opinión de las personas que realizan su trabajo en las plataformas y de sus representantes. Este punto es realmente importante y un acierto completo por parte de la Unión Europea. Como mencionamos anteriormente, dicha evaluación de impacto, antes de dicha regulación, no era obligatoria, sino que quedaba a discrecionalidad del empresario con el consiguiente hándicap que implica (apartado 9. Artículo 35 RGPD (LA LEY 6637/2016)). Ahora bien, esta obligación de consulta en la evaluación de impacto sólo será extensible a los trabajadores de plataformas digitales sujetos a decisiones automatizadas y, en cambio, deja fuera al resto de los trabajadores que no desarrollan su relación laboral dentro de estos sectores de actividad. En este sentido, sería aconsejable para evitar una desigualdad significativa de derechos y garantías en una cuestión de tanta sensibilidad y relevancia para la salvaguarda de derechos fundamentales que se modificara el RGPD estableciéndose esa obligación de consulta imperativa también para los restantes trabajadores. Esperemos que dicha modificación se plantee en el corto plazo.

Avanzando en la lectura de la Directiva, en su artículo 9 (11) , se refuerza el derecho de información de los trabajadores con respecto a dichos sistemas. En este sentido, se exigirá que se informe a los trabajadores, a sus representantes y, si así lo solicitan, a las autoridades nacionales competentes. Esta información deberá de contener un contenido mínimo. Independientemente del objeto del sistema de automatización —es decir, ya sea la toma de decisiones o, en cambio, la supervisión y/o evaluación del desempeño del trabajador— deberá de informarse siempre si ya están implementadas o lo estarán en un futuro. A lo anterior, en función del objeto del sistema automatizado, se añaden unos requisitos adicionales. Por un lado, respecto a los sistemas de evaluación y/o supervisión: a) delimitarán los tipos de datos y acciones que serán objeto de supervisión o evaluación y; b) quiénes serán los destinatarios de dichos datos. Por otro lado, respecto a los sistemas de toma de decisiones: a) la concreción de las decisiones que podrán ser adoptadas automáticamente; b) las categorías de datos y los principales parámetros que tales sistemas tienen en cuenta, y su importancia relativa y, finalmente; c) los motivos de las decisiones de restringir, suspender o cancelar la cuenta de la persona que realiza trabajo en plataformas, de denegarle el pago por el trabajo realizado, y de las decisiones sobre su situación contractual o cualquier decisión con efectos equivalentes o perjudiciales.

La información se facilitará al trabajador por escrito en un lenguaje transparente, inteligible, accesible, claro y sencillo, pudiendo presentarlo en un formato electrónico

La información se facilitará al trabajador por escrito en un lenguaje transparente, inteligible, accesible, claro y sencillo, pudiendo presentarlo en un formato electrónico. A más tardar, en el primer día hábil de su trabajo. Asimismo, se les reconoce el derecho a recibir información exhaustiva y detallada a petición suya sobre todos los sistemas pertinentes y las características de estos. Esta transparencia en cuanto a la información no se limita al trabajador, sino alcanzará también a sus representantes quienes la recibirán antes de su utilización o introducción.

Otro punto destacable de la regulación de la Directiva es garantizar la transparencia de estos sistemas incluso en la etapa más «joven» de la relación laboral; es decir, en el seno de los procesos de selección, a los candidatos. Personalmente, me parece un completo acierto. Al fin y al cabo, suele ser precisamente en esta fase de la relación laboral donde las empresas acuden con mayor énfasis a este tipo de sistemas para ahorrarse tiempo en detrimento de los derechos de los trabajadores. Esta información se referirá a los sistemas automatizados de supervisión o de toma de decisiones utilizados en dicho procedimiento y se facilitará antes del inicio de dicho procedimiento.

El artículo 10 refuerza la vigilancia humana a estos sistemas automatizados. Frente al texto inicial de 2021 donde sólo se fijaba su revisión periódica sin delimitar la frecuencia (12) , actualmente se establece que se efectuará, en cualquier caso, cada dos años. Se exigirá dotar de recursos humanos suficientes a tal fin. A su vez, las personas encargadas de esta función de vigilancia y evaluación deberán de tener la competencia, la formación y la autoridad necesaria para el desempeño de esta función; incluso, para anular dichas decisiones. A tal fin, la Unión Europea ha decidió dotarles de una protección específica ante eventuales represalias como consecuencia de dicha supervisión y, en este sentido, gozarán de una protección contra el despido o cualquier otra medida de índole disciplinaria. Si en la supervisión del sistema se percatan de un riesgo elevado de discriminación en el trabajo como consecuencia de su utilización o, en cambio, se constata su materialización, se adoptarán las medidas necesarias para su modificación. Finalmente, este artículo establece una última garantía de supervisión humana y, justamente, es la relativa al despido. En este sentido, toda decisión de restringir, suspender o poner fin a la relación contractual o a la cuenta de una persona que realice trabajo en plataformas, o cualquier otra decisión que cause un perjuicio equivalente, será adoptada siempre por un ser humano. Al igual que con las evaluaciones de impacto, este punto debería de contemplarse para los restantes trabajadores y no estar limitado a los de las plataformas digitales.

El artículo 11 de la DTPD reconoce el derecho de los trabajadores a recabar una explicación de la plataforma digital con respecto a la decisión que se adopte utilizando sistemas automatizados. Así, sin demora indebida, se les deberá de facilitar bien de forma oral o escrita una justificación. Igualmente, se les reconoce ya no sólo a ellos sino también a sus representantes la posibilidad de instar su revisión. En dicho supuesto, la plataforma digital de trabajo responderá a esa solicitud facilitando al trabajador una respuesta suficientemente precisa y adecuadamente motivada en forma de documento escrito que podrá estar en formato electrónico, sin demora indebida y, en cualquier caso, en el plazo de dos semanas a partir de la recepción de la solicitud. Ahora bien, dichas garantías no afectarán a los procedimientos disciplinarios o al despido que pueda iniciarse como consecuencia de su aplicación. De la redacción de este artículo sorprende la fijación de un plazo temporal de respuesta por parte de la empresa en relación a la revisión, pero no en cambio a la hora de recabar una justificación a la decisión; en cierta forma, se contradice. En cambio, parece lógico que se haya optado por excluir de aquí las consecuencias disciplinarias para evitar eventuales abusos por parte de los trabajadores para dilatar decisiones temporales que puedan estar motivadas.

Finalmente, el artículo 13 de la Directiva garantiza la participación de los representantes de los trabajadores en todas las decisiones que puedan conducir a la introducción de sistemas automatizados de supervisión o de toma de decisiones o a cambios sustanciales en el uso de dichos sistemas, correspondiendo a los Estados Miembros delimitar su grado de intervención. Desde mi punto de vista, debería de asegurarse la misma con un carácter preventivo a efectos preventivos. No obstante, si finalmente el legislador español no llega a exigirlo imperativamente sería altamente aconsejable que el empresario la llevara a cabo preventivamente ya no sólo a efectos de mitigar eventuales riesgos sino también desde una óptica de reputación corporativa.

En definitiva, el contenido de la DTPD resulta un acierto al equilibrar correctamente los intereses laborales junto a la salvaguarda del derecho a la privacidad de los trabajadores. Si bien cuenta con algunas cuestiones que podrían mejorarse, véase por ejemplo la fijación temporal de un plazo para dar respuesta a la solicitud de una justificación a una decisión automatiza, a grandes rasgos está bastante completa y refuerza la regulación inicialmente planteada en el año 2021. Nuestro papel ahora es la de un mero espectador a la espera de ver desde su «butaca» qué ocurrirá con su aprobación y cómo se efectuará su transposición por los distintos Estados Miembros. Por otro lado, otro punto que ha quedado en el tintero es si esta regulación se trasladará también en un texto independiente para los restantes trabajadores, quienes no dejan también de estar expuestos a los abusos cometidos empleando algoritmos en las relaciones laborales.; a fin de cuentas, ya no es un «signo distintivo» de plataformas como UBER. En el ínterin y, a falta de una regulación específica a esta cuestión, quizá sería aconsejable que las empresas trasladaran voluntariamente su aplicación a estos supuestos.

IV. Los sistemas de inteligencia artificial aplicados a las relaciones laborales según la propuesta del Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial

Desde el inicio del artículo he enfatizado cómo la utilización de algoritmos en el ámbito laboral forma parte de nuestro día a día, de nuestra rutina, alcanzando casi la misma cotidianidad que una pausa para el café. La rama laboral no es una isla desierta en medio de este océano de desarrollo tecnológico. Más bien forma parte de una de las numerosas ramas de actividad «afectadas» por estos sistemas tecnológicos cuyo objetivo principal es «facilitarnos la vida» con miras a optimizar nuestros recursos de tiempo en tareas o gestiones que generen un mayor valor añadido. Si bien esta tecnología y los sistemas que la acompañan han experimentado en los últimos tiempos una expansión indudable, su compañera de viaje regulatoria ha estado más rezagada.

En esta carrera de fondo regulatoria por alcanzar al líder de la carrera, el algoritmo, la Unión Europea lleva de momento la delantera del pelotón. La última versión del texto propuesto para regular esta cuestión se publicó el pasado marzo de 24 por el Parlamento Europeo (13) (en adelante, «RIA»). Evidentemente, se han producido referencias a la inteligencia artificial aplicada a las relaciones laborales. En concreto, según el artículo 6.2 del RIA, que se remite al Anexo III del citado texto legal, se califican como sistemas de alto riesgo de inteligencia artificial aquellos sistemas cuyo objeto sea: a) ser utilizados para la contratación o selección de personas físicas, en particular para publicar anuncios de empleo específicos, analizar y filtrar solicitudes de empleo y evaluar candidatos; (b) los destinados a ser utilizados para tomar decisiones que afecten a las condiciones de las relaciones laborales, la promoción y la finalización de las relaciones contractuales laborales, para asignar tareas basadas en el comportamiento individual o en rasgos o características personales y para supervisar y evaluar el rendimiento y el comportamiento de las personas en dichas relaciones.

Su clasificación como sistemas de alto riesgo conlleva que estén sujetos a una serie de requisitos adicionales por su eventual afectación a derechos fundamentales; en este caso, los derechos de los trabajadores y la privacidad. Como el contenido del régimen jurídico de estos sistemas es muy denso, vamos a reproducir las líneas principales que conllevará el desarrollo de este tipo de sistemas y las consiguientes obligaciones a las que tendrán que hacer frente una vez que se proceda a la aprobación definitiva del citado texto. En concreto, su régimen jurídico se detalla en el Capítulo III del RIA. La regulación se centra más bien en los requisitos que estos sistemas han de contar en cuanto a evaluación de riesgos, control humano, supervisión, documentación técnica, declaración de conformidad de la Unión Europea y registro. Es decir, se proyectan sobre cuestiones estrictamente técnicas con los que han contar más que entrar a regular su afectación a sectores o derechos fundamentales concretos.

Una de ellas pasa por el establecimiento, aplicación, documentación y mantenimiento de un sistema de gestión de riesgos en relación con los sistemas de IA de alto riesgo (artículo 9 del RIA). El sistema de gestión de riesgos se entenderá como un proceso iterativo continuo. A su vez, otro requisito pasa por la redacción de una documentación técnica La documentación técnica de un sistema de alto riesgo se elaborará antes de su comercialización o puesta en servicio y se mantendrá actualizad. Se elaborará de forma que demuestre que el sistema cumple los requisitos establecidos en la regulación y proporcione a las autoridades nacionales competentes y a los organismos notificados la información necesaria de forma clara y completa para evaluar la conformidad del sistema con dichos requisitos. Contendrá, como mínimo, los elementos establecidos en el anexo IV (14) . Las PYME, incluidas las de nueva creación, podrán facilitar los elementos de la documentación técnica especificados en el anexo IV de forma simplificada.

Otro requisito adicional pasa por permitir técnicamente el registro automático de eventos («logs») durante toda la vida útil del sistema (artículo 12 RIA). Estos sistemas de alto riesgo deberán de gozar con un grado de transparencia específico. En este sentido, se diseñarán y desarrollarán de tal forma que se garantice que su funcionamiento es lo suficientemente transparente como para permitir a los implantadores interpretar los resultados del sistema y utilizarlos adecuadamente; así, irán acompañados de instrucciones de uso en un formato digital adecuado o de otro tipo que incluya información concisa, completa, correcta y clara que sea pertinente, accesible y comprensible para los usuarios (artículo 13 RIA). Evidentemente, serán objeto de una supervisión humana. El objeto de la misma será prevenir o reducir al mínimo los riesgos para la salud, la seguridad o los derechos fundamentales que puedan surgir cuando un sistema de inteligencia artificial de alto riesgo se utilice de acuerdo con su finalidad prevista o en condiciones de uso indebido razonablemente previsible. Las medidas de supervisión serán proporcionales a los riesgos, el nivel de autonomía y el contexto de uso del sistema (artículo 14 RIA).

Por su parte, se establecen unas obligaciones específicas que tendrán que cumplirse en función del papel que juegue un agente con relación a la inteligencia artificial. Se reconocen distintos agentes: prestador, importador, comercializador, distribuidor o implantador del sistema. En otras palabras, en función de qué concreto papel desempeñe el empresario con respecto a la inteligencia artificial aquel determinará las obligaciones que habrá de observar. Evidentemente, a nivel práctico, lo más probable es que por sí mismo no llegue a desarrollar esta tecnología limitándose a ejecutar el rol de implantador del sistema; sin embargo, ello no le habilita a «cegarse» respecto a las otras diligencias que deben observar los otros agentes. Como el contenido de este régimen jurídico es muy denso, nos vamos a centrar brevemente sólo en relación a algunos concretos agentes.

Así, en relación a los proveedores de sistemas de inteligencia artificial de alto riesgo deberán de garantizar, entre otros, los puntos siguientes (artículo 16 RIA): que sus sistemas con los requisitos mencionados anteriormente; identificarse; que dispongan de un sistema de calidad; que se haya sometido al correspondiente procedimiento de evaluación de su conformidad antes de su comercialización o puesta en servicio; elaborar la declaración de conformidad de la UE y cumplir con las obligaciones de registro. Por otro lado, en cambio, los importadores antes de comercializar un sistema de inteligencia artificial de alto riesgo deberán de verificar: a) que el proveedor de dicho sistema haya llevado a cabo el correspondiente procedimiento de evaluación de la conformidad a que se refiere el artículo 43; b) que el prestador ha elaborado la documentación técnica de conformidad con el artículo 11 y el anexo IV; c) que el sistema lleva el marcado CE de conformidad exigido y va acompañado de la declaración UE de conformidad y de las instrucciones de uso y, finalmente; d) que el prestador haya designado a un representante autorizado (artículo 23 RIA). Finalmente, respecto a los responsables del despliegue de estos sistemas adoptarán las medidas técnicas y organizativas adecuadas para garantizar que se utilizan dichos sistemas de conformidad con las instrucciones de uso que acompañan a los sistemas. Igualmente, asignarán la supervisión humana a personas físicas que tengan la competencia, formación y autoridad necesarias, así como el apoyo necesario (artículo 26 RIA).

Estos sistemas de alto riesgo deberán de obtener un certificado de conformidad con los requisitos de la Unión Europea. El proveedor de este sistema deberá optar para ello con alguno de los siguientes procedimientos: (a) el procedimiento de evaluación de la conformidad basado en el control interno contemplado en el anexo VI, o bien (b) el procedimiento de evaluación de la conformidad basado en la evaluación del sistema de gestión de la calidad y la evaluación de la documentación técnica, con la participación de un organismo notificado, contemplado en el anexo VII (artículo 43 RIA). La declaración de conformidad de la Unión Europea afirmará que el sistema de inteligencia artificial de alto riesgo en cuestión cumple los requisitos mencionados y contendrá una información mínima que es la recogida en el Anexo V del RIA (artículo 47 RIA). Esta información la mantendrá a disposición de las autoridades nacionales competentes durante un período de diez años a partir de la introducción en el mercado o la puesta en servicio del sistema de IA de alto riesgo. A esta conformidad le seguirá un marcado CE según lo descrito en el artículo 48 RIA. Finalmente, antes de la puesta en circulación o utilización de estos sistemas

Finalmente, de esta regulación específica para los sistemas de alto riesgo podemos resaltar también la existencia de una base de datos de la Unión Europea para los mismos (artículo 71 RIA). Tras la puesta en comercialización del sistema de inteligencia artificial de alto riesgo se efectuará un seguimiento del mismo con arreglo al artículo 72 RIA.

En definitiva, la propuesta de Reglamento sobre la Inteligencia Artificial de la Unión Europea está más enfocada en delimitar los elementos con los que han de contar los sistemas de inteligencia artificial para poder comercializarse y ser utilizados dentro del mercado comunitario de la Unión Europea. La obligaciones y observancias que tendrán que respetarse dependerán por completo del rol que juegue el agente. Asimismo, por su afectación a derechos fundamentales y sensibilidad, en su Anexo III, ha identificado una serie de sistemas que han sido calificados como de riesgo alto y que llevan aparejadas unas garantías adicionales. Aquí se incluyen los sistemas de algoritmos laborales de los que venimos hablando a lo largo de todo el artículo, es decir: por un lado, los sistemas que tienen como objetivo evaluar y supervisar el cumplimiento de la relación laboral por el trabajador y, por otro lado, los que tienen como objetivo la toma de decisiones respecto aquel. La regulación es bastante compleja, densa y sujeta a bastantes requisitos que habrán de observarse. Los numerosos requisitos en cuanto a registro y declaración de conformidad seguramente retrasarán su puesta en circulación en la Unión Europea y desincentivarán a muchos a continuar con su creación y desarrollo. No obstante, de lo que no cabe duda, es que el empresario que decida optar por su utilización una vez que esté aprobada definitivamente la Unión Europea deberá de estar informado y asesorado correctamente sobre las exigencias legales que envuelven su utilización en su día a día. Es decir, a corto plazo, el empresario se enfrentará a un doble desafío: por un lado, los cambios que se avecinan a nivel legislativo en cuanto a cómo podrán adoptarse de ahora en adelante las decisiones automatizadas en el seno de las relaciones laborales —directiva de los trabajadores de plataformas digitales y su eventual desarrollo laboral a nivel nacional y/o comunitario— y, por otro lado, las exigencias técnicas-legales ligadas a los mismos —propuesta de reglamento relativo a la inteligencia artificial—.

V. La propuesta de regulación de la Inteligencia Artificial en las relaciones laborales en el Reino Unido: iniciativa del Trades Union Congress

El impacto del algoritmo en la cotidianidad de las relaciones laborales es indudable. Si bien muchos continúan asociándolo exclusivamente a las plataformas digitales como UBER y GLOVO, lo cierto, es que forman parte integrante de nuestra vida. A pesar de ello, los legisladores no han entrado a regular la materia quizá por el incierto futuro que envuelve a estos sistemas o, en cambio, por haberse visto abrumados por la situación. Lo cierto es que continuamos con una regulación laboral muy frágil sobre esta cuestión, con muchas problemáticas sin respuesta, necesitando por ende dotar una respuesta regulatoria a esta situación cuanto antes o consolidar algunos mecanismos temporales de protección en el ínterin. De qué concreto agente social provenga dicha iniciativa resulta intrascendente pudiendo partir perfectamente de agentes como los sindicatos.

En concreto, en el Reino Unido, el Trades Union Congress presentó este año una propuesta legislativa sobre la regulación de la inteligencia artificial en el campo laboral: «Artificial Intelligence (Regulation and Employment Rights) Bill (15) ». El Trades Union Congress (TUC) (16) se trata de la organización nacional de los sindicatos británicos. Aunque es el único sindicato nacional, existen otros tres organismos afines: el Congreso de Sindicatos Escoceses, el Consejo de Sindicatos de Gales y el Congreso de Sindicatos Irlandeses (incluido el Comité de Irlanda del Norte).

Fundado en 1868, el TUC celebraba conferencias anuales de sindicatos independientes para promover los principios sindicales. Desde 1871 contaba con una comisión permanente, la Comisión Parlamentaria, cuya función principal era presionar al Parlamento para que aprobara leyes favorables a los sindicatos. El TUC estuvo formado casi exclusivamente por sindicatos de trabajadores cualificados hasta 1889, cuando empezó a aceptar las primeras afiliaciones de afiliados no cualificados. Su relevancia e influencia política y social en el Reino Unido es bastante significativa.

Su regulación es bastante densa, no obstante, podemos exponer resumidamente alguna de las cuestiones que resuelve y sus propuestas al respecto:

  • a) Recoge la ejecución por parte del empresario de una evaluación de impacto de la implementación de sistemas de inteligencia artificial al campo de las relaciones laborales.
  • b) Establece también la obligación de establecer un período previo de consultas con los trabajadores antes de la adopción de una decisión de riesgo alto derivada de la utilización de estos sistemas.
  • c) La obligación por parte del empresario de disponer de un registro donde se deje constancia de la totalidad de los sistemas de inteligencia artificial que se emplearán con los trabajadores. El acceso a dicho registro por parte de los empleados deberá de permitirse.
  • d) El derecho a reclamar una justificación a la decisión por no sólo del empleado sino también del candidato de un proceso de selección. Igualmente, se les legitima a solicitar la revisión o reconsideración de la decisión adoptada.
  • e) Expresamente se prohíbe la adopción de decisiones por sistemas automatizados que hayan partido del reconocimiento de las emociones del empleado.
  • f) En el supuesto de decisiones automatizadas que puedan tener un contenido discriminatorio, se establece la presunción ante los tribunales de que aquella efectivamente reviste dicho carácter a menos que el empresario sostenga lo contrario.
  • g) En el supuesto de que la decisión de despedir a un empleado se haya adoptado por la vía de un sistema automatizado y se sostenga que aquel no goza de las garantías mínimas legales, en dicho caso, corresponderá al empresario justificar que la decisión ha sido adoptada correctamente y por los cauces legales.

Ahora queda por ver si en Europa, principalmente en Francia o en España, los sindicatos se animarán a plantear una iniciativa de índole similar a la planteada por el Trades Union Congress en el Reino Unido. Lo más probable es que una iniciativa de esta índole no vea la luz, exitosamente, en el órgano legislativo correspondiente, sin embargo, indudablemente, supondría un mecanismo de presión de peso de cara a que se aborden estas cuestiones sin esperar a la respuesta que provenga sobre este punto de la Unión Europea.

VI. El ínterin y sus posibles soluciones

Hasta en cuanto no «florezca» una respuesta legislativa global a las problemáticas legales que generan los algoritmos en el campo de las relaciones laborales —ya sea a nivel comunitario con la creación de una Directiva específica en la materia o mediante una modificación de la Directiva relativa a los Derechos de los Trabajadores de las Plataformas Digitales anteriormente analizada— indudablemente, tanto el empresario como los trabajadores tendrán que enfrentarse a los riesgos asociados a la consolidación de estos sistemas. Petrificados ante esta realidad no pueden quedar dados los intereses en juego, por lo que en el ínterin deben arbitrarse soluciones. Soluciones «temporales», no obstante, que perfectamente podrán devenirse en «compañeras de aventuras y desventuras» de la futura normativa.

Para muchos, la negociación colectiva está llamada a convertirse en el antídoto a todos los males de la situación actual de vacío legal. Esta solución no sólo se plantea en España, sino también en otros países vecinos de la Unión Europea como Francia (17) e Italia (18) . Es más, incluso la propia Unión Europea aboga por este sistema en distintos documentos. Por ejemplo, cuando el Dictamen del Comité Económico y Social Europeo sobre la «Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones/Plan coordinado sobre la inteligencia artificial» (COM (2018) 795 final)» expuso entre sus conclusiones y recomendaciones que el diálogo social desempeñará un papel fundamental a la hora de anticipar los cambios y las futuras necesidades del ámbito laboral. Asimismo, en este mismo sentido se ha pronunciado el Parlamento Europeo cuando en la Resolución del Parlamento Europeo de 15 de junio de 2017 (LA LEY 23117/2017) sobre una Agenda Europea para la Economía colaborativa entendía que la colaboración con los interlocutores sociales y demás partes implicadas será imprescindible para modernizar la legislación y, entre muchos aspectos, particularmente, para adaptarla a los cambios tecnológicos que se vayan consolidando. Finalmente, también en España juega y jugará un rol fundamental como expuse en el primer apartado del artículo al exponer tanto el ejemplo del Convenio Colectivo de Entidades de Crédito como el artículo 91 de la LOPD; este último específicamente habilita a acudir a la negociación colectiva para la salvaguarda del derecho a la privacidad de los trabajadores.

El recurso a este sistema parece lógico por su mayor flexibilidad regulatoria en comparación con los textos normativos legales emanados del Poder Legislativo. Sin embargo, no todo son luces en este camino; le acompañan algunos hándicaps. El primero, la inexistencia de un marco común para todos los trabajadores; se configurarán distintos niveles de protección dependiendo de los acuerdos alcanzados para cada uno de los diferentes sectores. Por otro lado, lo más probable es que el texto resultante se incline en menor medida en favor de los trabajadores dado el mayor poder de negociación con el que suelen contar las empresas.

En contraposición con los Convenios Colectivos, otra posible opción pasa por los sindicatos o asociaciones empresariales. Concretamente, con que diseñen Códigos de Conducta en esta materia. Ambos organismos suelen contar con juristas asalariados o colaboradores que pueden llegar a redactar códigos de conducta apropiados desde un punto de vista legal para garantizar la correcta aplicación de estos sistemas salvaguardando correctamente los derechos de los trabajadores. No parece que a corto plazo esta solución pueda llegar a consolidarse, pero sí que podría ser útil e interesante para este fin. Quizá, incluso, podrían garantizar una mayor homogeneidad para los trabajadores, independientemente de su actividad económica, que los mencionados Convenios Colectivos.

En línea con lo anterior, eso sí, limitado a la empresa como ente individual, sería bastante aconsejable contar con una especie de «Compliance Officer laboral» que se responsabilizase de efectuar la evaluación de impacto, conversar con los trabajadores o sus representantes, construir las correspondientes políticas, diseñar las medidas de control y garantizar el ejercicio correcto del derecho de reclamar una justificación y de revisión por parte de los trabajadores frente a las decisiones automatizadas del empresario. Quizá esta solución sea la más acertada a nivel teórico y de un mundo ideal. No obstante, la realidad puede distar bastante, precisamente, por las reticencias que mostrarán a ello las PYMES. A fin de cuentas, no podemos pasar por alto que este tipo de empresas ha evidenciado en reiteradas ocasiones su recelo respecto al desarrollo e implementación de políticas de compliance penal, por lo que parece aún más lógico anticipar que lo serán a otras vinculadas a la inteligencia artificial, los derechos a la privacidad y la protección de datos.

Finalmente, se me plantea la duda de sí llegarán a desarrollarse sistemas certificadores en esta esfera que puedan diseñar sus propios códigos de conducta, desarrollar auditorías paralelas ligadas a aquellos y verificar si efectivamente un empleador reúne o no unos mínimos para evitar abusos en la utilización de los sistemas algorítmicos en sus relaciones laborales.

En relación a todas estas alternativamente, firmemente confío en que cualquiera de ellas sea acogida por las empresas con miras a salvaguardar los derechos a la protección de datos y privacidad de los trabajadores. Independiente de la existencia de una obligación que pueda llegar a imponerles la obligación y, en caso contrario, imponerles una sanción, la sensibilidad de esta cuestión debe de servir de motivación suficiente para ser cauto en la implementación de sistemas automatizados de toma de decisiones en el campo laboral por parte del empresario.

VII. Conclusión. La necesidad de un equilibrio entre una regulación homogénea y el pragmatismo

Como una pequeña hormiga trabajadora, el algoritmo se ha ido paulatinamente consolidando como el mejor amigo del responsable de Recursos Humanos. Su más fiel consejero, sí, pero al mismo también quien le puede poner en determinadas ocasiones ante el abismo por una gestión «peligrosa» con relación a la salvaguarda de los derechos de protección de datos personales y privacidad de los trabajadores. El artículo 22 (LA LEY 6637/2016) y el 35 del RGPD (LA LEY 6637/2016) les «plantaban cara», cierto, pero hasta cierto punto por lo que hemos visto. Algunos de los nuevos Convenios Colectivos que se están aprobando se pronuncian sobre estos puntos con cautela y sin entrar con el mismo detalle que la legislación comunitaria de la Directiva relativa a los trabajadores de las plataformas digitales.

Esta Directiva el único texto legal que ha entrado en el fondo de la cuestión tratando de conjugar el uso de los sistemas automatizados de tomas de decisiones, con los derechos de los trabajadores y algunos de sus derechos fundamentales

Precisamente, es esta Directiva el único texto legal que, efectivamente, ha entrado en el fondo de la cuestión tratando de conjugar la utilización de los sistemas automatizados de tomas de decisiones, con los derechos de los trabajadores y algunos de sus derechos fundamentales. Es más, incluso ha diseñado sistemas de salvaguarda para los candidatos de los procesos de selección, con un mínimo de derecho de información con carácter previo a presentar su solicitud. Tristemente, sin embargo, esta regulación está configurada exclusivamente para los trabajadores de las plataformas digitales. Hasta la epidemia, eran las únicas víctimas del algoritmo laboral. La realidad, a día de hoy, en cambio, es completamente distinta. En consecuencia, lo cierto es que con esta regulación exclusivamente diseñada para los trabajadores de las plataformas digitales la Unión Europea ha creado una asimetría legal entre estos dos grandes bloques de trabajadores: el trabajador tradicional y el trabajador UBER-GLOVO.

En el entretiempo, hasta en cuanto no parta de la Unión Europea el diseño de una regulación homogénea al respecto para todo tipo de trabajadores y/o España no proceda a modificar el Estatuto de los Trabajadores (LA LEY 16117/2015) o a crear «la ley del algoritmo laboral», la realidad es que hay que buscar una solución que permita equilibrar las dos posiciones en juego. Desde mi punto de vista, la solución pasa por arbitrar la figura del «compliance officer laboral» que se responsabilizase de efectuar la evaluación de impacto, conversar con los trabajadores o sus representantes, construir las correspondientes políticas, diseñar las medidas de control y garantizar el ejercicio correcto del derecho de reclamar una justificación y de revisión por parte de los trabajadores frente a las decisiones automatizadas del empresario. Si bien para muchos esto puede no resultar pragmático, para mí lo es. Permitiría trasladar de antemano las medidas diseñadas para los trabajadores de las plataformas digitales al resto de los trabajadores, adaptarse con mayor facilidad a las necesidades concretas de cada empresa, dar más pie a la flexibilidad y, aunque no se le de relevancia en España, contribuiría a mejorar la imagen de reputación corporativa de la empresa y a consolidar una sociedad más ética que dote de un mayor valor a la salvaguarda de los derechos fundamentales.

VIII. Bibliografía

1. ABRAHA HALERFOM. Regulating algorithmic employment decisions through data protection law. European Labour Law Journal 2023, Vol. 14(2) 172-191. https://ssrn.com/abstract=4417954.

2. AMAUGUER-LATTES, M.C., «Le dialogue soial: outil de régulation de l´intelligence artificielle dans l´entrprise». Droit Social, núm. 2, 2021, págs. 146 y ss.

3. BORELLI, S., «Contrattazione dell´algoritmo» Lavoro e tecnologie (Dizionario del diritto del lavoro che cambia), Giappiechelli Editore, Torino, 2022, pág. 44 y ss.

4. CONSEJO DE LA UNIÓN EUROPEA. Propuesta de DIRECTIVA DEL PARLAMENTO EUROPEO Y DEL CONSEJO relativa a la mejora de las condiciones laborales en el trabajo en plataformas digitales. Bruselas, 8 de marzo de 2024. https://data.consilium.europa.eu/doc/document/ST-7212-2024-ADD-1/es/pdf .

5. CONSEJO EUROPEO. CONSEJO DE LA UNIÓN EUROPEA. Trabajadores de plataformas digitales: el Consejo confirma el acuerdo sobre nuevas normas para mejorar sus condiciones laborales. Comunicado de prensa del 11 de marzo de 2024. https://www.consilium.europa.eu/es/press/press-releases/2024/03/11/platform-workers-council-confirms-agreement-on-new-rules-to-improve-their-working-conditions/ .

6. DATA PROTECTION WORKING PARTY ARTICLE 29. Guidelines on Automated individual decision-making and Profiling forr the purposes of Regulation 2016/679. file:///C:/Users/eleal/Downloads/wp251rev_01_en_A754F3E1-FB46-9E76-C0A919864E4B6641_49826.pdf.

7. DEPARMENT FOR DIGITAL, CULTURE, MEDIA & SPORT. UNITED KINGDOM GOVERNMENT. Data: A new direction 10 September 2021. https://assets.publishing.service.gov.uk/media/6155c6dde90e07198018f7bb/Data_Reform_Consultation_Document__Accessible_.pdf.

8. DEPARMENT FOR DIGITAL, CULTURE, MEDIA & SPORT. UNITED KINGDOM GOVERNMENT. Consultation outcome. Data: A new direction-governmet response to consultation. 23 June 2022. https://www.gov.uk/government/consultations/data-a-new-direction/outcome/data-a-new-direction-government-response-to-consultation .

9. EUROPEAN PARLIAMENT. Artificial Intelligence Act. European Parliament legislative resolution of 13 March 2024 on the proposal for a regulation of the European Parliamen and of the Council on laying down harmonised rules on Artificial Intelligente (Artificial Intelligence Act) and amending certain Union Legislative Acts. https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.pdf .

10. GARCÍA QUIÑONES, JUAN CARLOS. Inteligencia Artificial y relaciones laborales: entre la significación creciente de los algoritmos y el desmentido de su neutralidad aparente. TEMAS LABORALES número 167/2023, Páginas 75-126. https://dialnet.unirioja.es/servlet/articulo?codigo=9048575 .

11. MOLINA HERMOSILLA, OLIMPIA. Inteligencia artificial, bigdata y derecho a la protección de datos de las personas trabajadoras. Revista de Estudios Jurídicos Laborales y de Seguridad Social noviembre-abril 2023-número 6 ISSN-e:2660-437X.

12. ROJO, EDUARDO. Y al final hubo acuerdo sobre la «Directiva de plataformas». Primeros apuntes y texto comparado de la Propuesta inicial (9.12.2021) y del aprobado por el Consejo EPSCO (11.3.2024). Publicado el 12 de marzo de 2024. http://www.eduardorojotorrecilla.es/2024/03/y-al-final-hubo-acuerdo-sobre-la.html .

13. TRADES UNION CONGRESS. Artificial Intelligence (Regulation and Employment) Bill. 18 de abril 2024. https://www.tuc.org.uk/research-analysis/reports/artificial-intelligence-regulation-and-employment-rights-bill .

14. WARWICK UNIVERSITY. Trades Union Congress, 1846-2023. https://mrc-catalogue.warwick.ac.uk/records/TUC .

(1)

MOLINA HERMOSILLA, OLIMPIA. Inteligencia artificial, bigdata y derecho a la protección de datos de las personas trabajadoras. Revista de Estudios Jurídicos Laborales y de Seguridad Social noviembre-abril 2023-número 6 ISSN-e:2660-437X.

Ver Texto
(2)

GARCÍA QUIÑONES, JUAN CARLOS. Inteligencia Artificial y relaciones laborales: entre la significación creciente de los algoritmos y el desmentido de su neutralidad aparente. TEMAS LABORALES número 167/2023, Páginas 75-126. https://dialnet.unirioja.es/servlet/articulo?codigo=9048575.

Ver Texto
(3)

DEPARMENT FOR DIGITAL, CULTURE, MEDIA & SPORT. UNITED KINGDOM GOVERNMENT. Data: A new direction 10 September 2021. https://assets.publishing.service.gov.uk/media/6155c6dde90e07198018f7bb/Data_Reform_Consultation_Document__Accessible_.pdf.

Ver Texto
(4)

DEPARMENT FOR DIGITAL, CULTURE, MEDIA & SPORT. UNITED KINGDOM GOVERNMENT. Consultation outcome. Data: A new direction-governmet response to consultation. 23 June 2022. https://www.gov.uk/government/consultations/data-a-new-direction/outcome/data-a-new-direction-government-response-to-consultation.

Ver Texto
(5)

DATA PROTECTION WORKING PARTY ARTICLE 29. Guidelines on Automated individual decision-making and Profiling forr the purposes of Regulation 2016/679. file:///C:/Users/eleal/Downloads/wp251rev_01_en_A754F3E1-FB46-9E76-C0A919864E4B6641_49826.pdf.

Ver Texto
(6)

ABRAHA HALERFOM. Regulating algorithmic employment decisions through data protection law. European Labour Law Journal 2023, Vol. 14(2) 172-191. https://ssrn.com/abstract=4417954.

Ver Texto
(7)

CONSEJO EUROPEO. CONSEJO DE LA UNIÓN EUROPEA. Trabajadores de plataformas digitales: el Consejo confirma el acuerdo sobre nuevas normas para mejorar sus condiciones laborales. Comunicado de prensa del 11 de marzo de 2024. https://www.consilium.europa.eu/es/press/press-releases/2024/03/11/platform-workers-council-confirms-agreement-on-new-rules-to-improve-their-working-conditions/

Ver Texto
(8)

CONSEJO DE LA UNIÓN EUROPEA. Propuesta de DIRECTIVA DEL PARLAMENTO EUROPEO Y DEL CONSEJO relativa a la mejora de las condiciones laborales en el trabajo en plataformas digitales. Bruselas, 8 de marzo de 2024. https://data.consilium.europa.eu/doc/document/ST-7212-2024-ADD-1/es/pdf.

Ver Texto
(9)

ROJO, EDUARDO. Y al final hubo acuerdo sobre la «Directiva de plataformas». Primeros apuntes y texto comparado de la Propuesta inicial (9.12.2021) y del aprobado por el Consejo EPSCO (11.3.2024). Publicado el 12 de marzo de 2024. http://www.eduardorojotorrecilla.es/2024/03/y-al-final-hubo-acuerdo-sobre-la.html.

Ver Texto
(10)

La antigua redacción del texto establecía lo siguiente: «Artículo 7. Supervisión humana de los sistemas automatizados:1. Los Estados miembros velarán por que las plataformas digitales de trabajo supervisen y evalúen periódicamente el impacto que tienen en las condiciones de trabajo las decisiones individuales adoptadas o apoyadas por los sistemas automatizados de supervisión y toma de decisiones a que se refiere el artículo 6, apartado 1 (LA LEY 3736/1989). 2.Sin perjuicio de lo dispuesto en la Directiva 89/391/CEE (LA LEY 3736/1989) del Consejo y en las directivas conexas en el ámbito de la seguridad y la salud en el trabajo, las plataformas digitales de trabajo: a) evaluarán los riesgos de los sistemas automatizados de supervisión y toma de decisiones para la seguridad y la salud de los trabajadores de plataformas, en particular en lo que se refiere a posibles riesgos psicosociales, ergonómicos y de accidentes laborales; b)evaluarán si las salvaguardias de dichos sistemas son adecuadas para los riesgos detectados a la vista de las características específicas del entorno de trabajo; c)introducirán medidas preventivas y de protección adecuadas. No utilizarán sistemas automatizados de supervisión y toma de decisiones de manera que se ejerza una presión indebida sobre los trabajadores de plataformas o que se ponga en riesgo de algún otro modo la salud física y mental de los trabajadores de plataformas. 3.Los Estados miembros exigirán a las plataformas digitales de trabajo que garanticen recursos humanos suficientes para supervisar el impacto de las decisiones individuales adoptadas o apoyadas por sistemas automatizados de supervisión y toma de decisiones de conformidad con el presente artículo. Las personas encargadas de la función de supervisión por la plataforma digital de trabajo tendrán la competencia, la formación y la autoridad necesarias para ejercer esa función. Gozarán de protección contra el despido, las medidas disciplinarias u otro trato desfavorable en caso de anular las decisiones, o sugerencias de decisiones, automatizadas».

Ver Texto
(11)

Antes del Acuerdo de 11 de marzo de 2024, este derecho de información tenía un contenido más limitado y estaba recogido en el artículo 6 de la misma.

Ver Texto
(12)

Antiguo artículo 8 del texto de la Directiva aprobado el 9 de diciembre de 2021. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX%3A52021PC0762 .

Ver Texto
(13)

EUROPEAN PARLIAMENT. Artificial Intelligence Act. European Parliament legislative resolution of 13 March 2024 on the proposal for a regulation of the European Parliamen and of the Council on laying down harmonised rules on Artificial Intelligente (Artificial Intelligence Act) and amending certain Union Legislative Acts. https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.pdf

Ver Texto
(14)

A modo resumen, dicha documentación deberá de contar con los siguientes puntos: una descripción general del sistema de IA; una descripción detallada de los elementos del sistema de IA y del proceso para su desarrollo; información detallada sobre la supervisión, el funcionamiento y el control del sistema de inteligencia artificial; una descripción de la idoneidad de las métricas de rendimiento para el sistema de IA específico; una descripción detallada del sistema de gestión de riesgos de conformidad con el artículo 9; una copia de la declaración de conformidad de la UE y; una descripción detallada del sistema establecido para evaluar el rendimiento del sistema de IA en la fase posterior a la comercialización de conformidad con el artículo 72, incluido el plan de seguimiento posterior a la comercialización mencionado en el apartado 3 del artículo 72.

Ver Texto
(15)

TRADES UNION CONGRESS. Artificial Intelligence (Regulation and Employment) Bill. 18 de abril 2024. https://www.tuc.org.uk/research-analysis/reports/artificial-intelligence-regulation-and-employment-rights-bill .

Ver Texto
(16)

WARWICK UNIVERSITY. Trades Union Congress, 1846-2023. https://mrc-catalogue.warwick.ac.uk/records/TUC

Ver Texto
(17)

AMAUGUER-LATTES, M.C., «Le dialogue soial: outil de régulation de l´intelligence artificielle dans l´entrprise». Droit Social, núm. 2, 2021, págs. 146 y ss.

Ver Texto
(18)

BORELLI, S., «Contrattazione dell´algoritmo» Lavoro e tecnologie (Dizionario del diritto del lavoro che cambia), Giappiechelli Editore, Torino, 2022, pág. 44 y ss.

Ver Texto
Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll