Los algoritmos y la inteligencia artificial (IA) están cambiando la forma de vivir y trabajar de las personas. Dependiendo de cómo se utilicen las tecnologías de IA y de su finalidad, pueden impulsar el progreso y beneficiar a toda la sociedad, pero también plantean problemas éticos y pueden causar daños.
En el mundo laboral, su potencial transformador choca con complejas normas nacionales y de la UE. La legislación laboral existente anterior a la aparición de los sistemas de IA, no parece estar en condiciones de ofrecer directrices significativas.
Como ocurre con cualquier nueva tecnología, surgen tensiones entre dos enfoques normativos opuestos: una regulación estricta para salvaguardar a la sociedad de posibles peligros y una regulación mínima para fomentar la innovación.
Para los empresarios que invierten en sistemas de IA, la principal motivación es la mejora de la organización del trabajo, el aumento de la productividad y la competitividad. Los trabajadores, por su parte, pueden temer perder su empleo y también quieren opinar sobre cómo la IA y los algoritmos van a formar parte de su vida cotidiana.
Centrándose en la implantación de la IA en el lugar de trabajo, este informe del Parlamento Europeo examina la situación de la gestión algorítmica en el lugar de trabajo y algunas cuestiones relacionadas con ella. Ofrece una visión general del actual planteamiento legislativo descendente de la UE, de los puntos de vista aportados por el Parlamento Europeo y de los avances en el ámbito de la IA.
Introducción
Para ayudar a orientar el despliegue de la IA, la Organización de Cooperación y Desarrollo Económicos (OCDE) ha establecido y actualiza continuamente una serie de principios para una IA fiable y supervisa los incidentes relacionados con la IA. El planteamiento de la UE se basa en una IA centrada en el ser humano y digna de confianza, que garantice y proteja los derechos fundamentales. Estos principios se reflejan en la estrategia sobre IA, el plan coordinado directrices éticas para una IA fiable elaboradas por el Grupo de Expertos de Alto Nivel sobre IA.
Las tecnologías de IA ya se utilizan en todos los sectores de la economía, afectan a todos los niveles de cualificación y tienen el potencial de transformar los mercados de trabajo. Hasta hace poco, las tecnologías de IA utilizadas en se limitaban sobre todo a aplicaciones de «IA restringida» que automatizan tareas específicas.
El lugar de trabajo es un ámbito importante en el que las nuevas tecnologías pueden desplegar su potencial transformador. Los sistemas de IA pueden descomponer rápidamente grandes cantidades de datos, identificar patrones, producir puntos clave de aprendizaje y proporcionar ayuda en la toma de decisiones. Esto abre oportunidades para mejorar la organización del trabajo, la eficiencia y la seguridad de los trabajadores, lo que se traduce en un aumento de la productividad.
También plantea una serie de problemas relacionados con la explicabilidad y la responsabilidad de los sistemas, la intimidad de los trabajadores y la toma de decisiones.
Gestión algorítmica
La gestión algorítmica (GA), es decir, la delegación de tareas de gestión a algoritmos, tiene el potencial de optimizar las operaciones, aumentar la productividad, racionalizar la toma de decisiones y proporcionar una mayor flexibilidad a las empresas.
optimizar las operaciones, aumentar la productividad, agilizar la toma de decisiones y proporcionar información basada en datos. Independientemente del nivel de desarrollo y automatización.
Más que una innovación técnica, el AM consiste en nuevos usos de tecnologías existentes como el análisis de macrodatos, el aprendizaje automático, la geolocalización, los dispositivos móviles conectados y los wearables. Combinándolas con enormes cantidades de datos, se convierten en un cambio de juego.
La AM utiliza varios tipos de herramientas de inteligencia artificial para seguir y vigilar a los trabajadores. Estas herramientas pueden medir el rendimiento físico del trabajo (a través de teléfonos inteligentes, aplicaciones basadas en GPS, wearables), registrar los movimientos de los trabajadores, su ritmo de trabajo y sus pausas. También pueden vigilar el comportamiento digital de las personas, a través de correos electrónicos y chats internos, y rastrear sus pulsaciones de teclado, el uso de aplicaciones y el historial web; supervisar la salud física y el estado mental de los trabajadores.
Inicialmente, la AM se limitaba al contexto de las plataformas digitales que utilizan datos y algoritmos para planificar y organizar el trabajo, coordinar, supervisar y evaluar a los trabajadores, así como para disciplinar y evaluar a los trabajadores. El uso combinado de datos y algoritmos refuerza los poderes de control y supervisión de las plataformas, lo que repercute en las condiciones de trabajo de los trabajadores.
En la actualidad, la AM se está extendiendo a entornos de trabajo más tradicionales, sobre todo en grandes empresas, donde interactúa con las estructuras organizativas existentes, su uso es más difícil de detectar que en las plataformas digitales.
El uso del AM presenta numerosos riesgos. Puede provocar cambios en la estructura de la empresa, modificando el el equilibrio de poder dentro de la empresa, alterando las jerarquías de trabajo, redefiniendo las tareas y las funciones, haciendo potencialmente redundantes algunos perfiles de trabajo y degradando otros, y difuminando los límites de la empresa. Al mismo tiempo, la AM puede repercutir en la calidad del empleo y aumentar la demanda de competencias específicas y la necesidad de formación, pero también puede conducir a la descualificación y a la pérdida de autonomía de los trabajadores. Los objetivos de
de ejecución de tareas fijados por la AM pueden dar lugar a un aumento de la carga de trabajo y de la intensidad del trabajo. Los trabajadores tienen que adaptar su ritmo de trabajo a lo que les piden los algoritmos y pueden verse sometidos a presiones de tiempo y estrés.
El trabajo en franjas horarias coordinadas por algoritmos puede mejorar la organización del trabajo, pero también dar lugar a solicitudes de trabajo de última hora y a la necesidad de estar permanentemente conectado a los canales de comunicación del trabajo, lo que erosiona la división entre trabajo y vida privada . El AM también puede reducir la interacción humana tanto entre los trabajadores como con los supervisores.
La AM ya se utiliza habitualmente en logística, incluidos los servicios de transporte así como en la fabricación. Está progresa en los sectores minorista, alimentario y alojamiento, desde hoteles a cadenas de alimentación, donde los algoritmos asignan turnos, coordinan, califican y evalúan a los trabajadores. La AM también se usa en otros sectores de servicios , desde bancos y consultorías hasta centros de llamadas. servicios públicos como la sanidad y la y la policía.
Más allá de los datos
Los sistemas AM recopilan y procesan grandes cantidades de datos en tiempo real y toman decisiones basadas en reglas y criterios complejos. Los datos recogidos son muy granulares y los criterios de medición a menudo opacos, tanto para los trabajadores como para los directivos. Los trabajadores no sólo son supervisados y evaluados por métricas y calificaciones algorítmicas, sino que su rendimiento y capacidades también se anticipan y Las herramientas de análisis de personas ofrecen a los directivos funciones de asesoramiento para seleccionar comportamientos. Esta nueva forma de vigilancia de los trabajadores acer y pueden ser inexactas y estar influidas por muchos factores, lo que da lugar a una información sesgada o inexistente o incluso a una medición errónea. se basa tanto en datos personales detallados como en la capacidad de los sistemas para medir cosas y extraer conclusiones de ellas.
Tanto los datos en sí como la forma en que se analizan no deben confiarse ciegamente, sino cuestionarse. Algunos datos recogidos a través del seguimiento de los trabajadores pueden ser de carácter muy personal. Cuando se combinan con datos sobre el entorno de trabajo (por ejemplo, la temperatura o el ruido) y se analizan utilizando parámetros que los trabajadores desconocen, los resultados generados pueden ser imprecisos.
Marco jurídico de la UE
La legislación de la UE ya cuenta con algunos elementos básicos, aunque todavía no se aplican todos. El Reglamento General de Protección de Datos (RGPD) (LA LEY 6637/2016), que se aplica desde mayo de 2018, establece normas vinculantes sobre protección de datos personales. Obliga a los empresarios a compartir información sobre su tratamiento de datos y proporciona a todos los «interesados» una serie de derechos individuales sobre información y acceso a los datos personales. Los empleadores pueden introducir la IA en el trabajo siempre que se hayan tenido en cuenta los derechos e intereses fundamentales de todos los interesados. Dado que los objetivos y el funcionamiento de la IA dependen de los datos disponibles, el RGPD proporciona un marco básico para mitigar las consecuencias negativas de la IA en el trabajo mediante los principios de legalidad, equidad, transparencia, limitación de la finalidad, minimización
minimización y exactitud de los datos. Sin embargo, la aplicación del RGPD sigue siendo un reto.
La Ley de Inteligencia Artificial (AI Act), primera normativa vinculante del mundo sobre IA, establece las normas para regular el uso y suministro de sistemas de IA en la UE.
Clasifica los sistemas de IA según sus riesgos potenciales y su nivel de impacto en las personas y la sociedad. Algunos sistemas de IA están prohibidos
debido a su riesgo inaceptable. Entre ellos se encuentran las herramientas de reconocimiento de emociones en el lugar de trabajo, Ciertos sistemas de IA utilizados en el empleo y la gestión de trabajadores, considerados de alto riesgo por sus importantes efectos nocivos para la salud, la seguridad y los derechos fundamentales.
Los empresarios que utilicen sistemas de IA de alto riesgo tendrán que garantizar la supervisión humana e informar de su uso a los trabajadores afectados y a sus representantes.
La Directiva relativa a la mejora de las condiciones de trabajo en las plataformas (Directiva sobre trabajadores de plataformas) pretende garantizar la correcta clasificación de la situación laboral de los trabajadores de plataformas y regula el uso de algoritmos por parte de las plataformas laborales digitales. Las plataformas tendrán prohibido tratar determinados tipos de datos personales mediante sistemas automatizados de seguimiento o toma de decisiones, por ejemplo sobre el estado emocional o psicológico de los trabajadores, o sus intercambios privados con compañeros y sus representantes- y recopilar datos cuando el trabajador esté de baja.
Posiciones del Parlamento Europeo
El Parlamento ha subrayado en repetidas ocasiones la importancia de la regulación de la IA. En 2019, pidió directrices éticas para la IA en el transporte e insistió en la «ética por diseño» para los modelos de IA en la política industrial de la UE. En 2020, el Parlamento adoptó tres resoluciones relacionadas con la IA, proponiendo un reglamento sobre principios éticos para el desarrollo, despliegue y uso de la IA. principios éticos para el desarrollo, despliegue y uso de la IA y las tecnologías relacionadas.
En 2021, en respuesta al el informe de la Comisión sobre la aplicación del RGPD, el Parlamento mostró su preocupación por la escasa aplicación del RGPD a nivel nacional, con el uso a menudo comprometido del «consentimiento» y el uso abusivo del «interés legítimo» como criterio de control y Recomendó que cada nueva iniciativa legislativa sea coherente con el RGPD y aborde las lagunas jurídicas.El Informe 2022 sobre la Inteligencia Artificial en la Era Digital, elaborado por el Comité Especial del Parlamento Europeo sobre la Inteligencia Artificial en la Era Digita, reconoce una serie de efectos positivos de la IA en la sociedad.
En las negociaciones sobre la directiva relativa a los trabajadores de plataformas, el Parlamento reforzó las disposiciones sobre AM. En el contexto del aumento del uso del teletrabajo, pidió a la Comisión que propusiera una directiva sobre normas mínimas sobre el derecho de desconexión de los trabajadores y el uso de herramientas digitales con fines laborales.
Negociación colectiva
El planteamiento regulador de la UE sobre la gobernanza de la IA, apoyado con normas sobre productos, puede complementarse con directrices específicas, autorregulación o códigos éticos. También hay margen para gobernanza complementaria de la IA a través del diálogo social y la negociación colectiva.
Los interlocutores sociales europeos, en su Acuerdo Marco 2020 sobre Digitalización, establecen que el despliegue de los sistemas de IA debe seguir el principio de «control humano», ser transparente y explicable, con una supervisión eficaz. Por lo que se refiere a los datos, las medidas «que deben considerarse» incluyenpermitir a los representantes de los trabajadores abordar cuestiones relacionadas con los datos, el consentimiento, la protección de la intimidad y la vigilancia, así como vincular siempre la recopilación de datos a una finalidad concreta y transparente.
La negociación colectiva y las iniciativas sindicales pueden ser un medio eficaz para aplicar las las salvaguardias legales existentes contra los riesgos asociados a la AM y para adoptar enfoques flexibles ante el desarrollo en constante evolución de la IA. Aunque los trabajadores pueden encontrar dificultades a la hora de hacer valer sus derechos individuales en el contexto de la AM -por ejemplo, al intentar acceder a sus datos y verificar el
tratamiento de los datos que les conciernen, las acciones basadas en los derechos colectivos pueden mejorar la protección laboral y ayudar a los trabajadores a hacer valer sus derechos.
Los sindicatos ya han «negociado el algoritmo» en países europeos con diferentes modelos de relaciones laborales. La federación europea de sindicatos (UNI Europa) mantiene una base de datos sobre IA y AM en los convenios colectivos, en la que figuran actualmente 23 acuerdos. Un informe de 2023 sostiene
que los representantes de los teletrabajadores deberían centrarse en la aplicación a nivel de empresa, donde los intereses de los trabajadores se planifican, desarrollan y ponen en práctica.
De cara al futuro
La legislación de la UE ofrece varias posibilidades de actuación futura para garantizar que los beneficios de la IA en el lugar de trabajo se repartan entre empresarios y trabajadores. La más mencionada es el artículo 88 se refiere específicamente a la protección de datos en el contexto del empleo y permite a los Estados miembros adoptar normas más específicas para proteger los datos personales de los trabajador por ley o por convenios colectivos.
Aunque se establezcan estas «cláusulas durmientes», persistirán algunas zonas grises a menos que se aborden específicamente. El RGPD, por ejemplo, utiliza el concepto de consentimiento, pero el reto consiste en garantizar que el consentimiento se ha dado para todos los fines para los que pueden utilizarse los datos. Establece el derecho de acceder a los datos personales, pero los datos por sí solos pueden no ser suficientes, y un trabajador puede necesitar una explicación.
Como instrumento de regulación del mercado, la Ley de IA sigue la lógica de la mitigación de riesgos, tratando de garantizar una protección básica contra la entrada en el mercado de la UE de los sistemas más peligrosos. Impone obligaciones a quienes despliegan la IA, incluidos desarrolladores y empleadores, pero no incluye a los trabajadores. No establece normas para el diseño y el uso de sistemas algorítmicos en el lugar de trabajo, dejando estas cuestiones a otras leyes nacionales o de la UE.
La Directiva sobre trabajadores de plataformas aporta una serie de derechos relacionados con la IA que, sin embargo, se limitan a los trabajadores de plataformas digitales. Una vez que se aplique la directiva, será difícil justificar el hecho de que dichos trabajadores tienen ciertos derechos y protecciones mientras que, por ejemplo, un trabajador de Amazon gestionado por un de mano automatizado y sometido a una amplia supervisión y toma de decisiones algorítmicas no goza de los mismos derechos y protecciones.
automatizada.
Analizando las posiciones de las partes interesadas, los empresarios, representados por BusinessEurope, consideran que se necesitan medidas proporcionadas, significativas y apropiadas para aumentar la transparencia a fin de generar confianza en la AM. en su opinión, esto ya está suficientemente cubierto por la legislación de la UE. Cualquier iniciativa orientada a la AM debe tratar de ayudar a las empresas a mitigar sus riesgos y aprovechar su potencial sin crear burocracia legislativa. Sugieren implicar a los interlocutores sociales en un debate sobre un código de principios éticos y desarrollar directrices sobre cómo aplicar la legislación vigente.
Considerando insuficiente la Ley de IA, los sindicatos (CES, IndustriAll) piden una directiva de la UE que defina normas mínimas para el diseño y el uso de sistemas algorítmicos en el lugar de trabajo. LA CES sostiene que la directiva debería reforzar los derechos de negociación colectiva de los sindicatos, así como los los derechos de información, consulta y participación de los representantes de los trabajadores. También debería definir el principio de «persona al mando», proteger los derechos de las personas que toman las decisiones y dar a los a los trabajadores el derecho a comprobar y revisar las decisiones algorítmicas. Las aplicaciones AM sólo deben permitirse si su uso se negocia con los sindicatos y/o los representantes de los trabajadores.
Estas demandas ponen de relieve las cuestiones fundamentales, a saber: ¿debe permitirse en absoluto el uso de AM (legalidad)? ¿Son válidas las decisiones adoptadas por la IA (validez)? ¿Pueden ejecutarse las decisiones y acciones (ejecutabilidad)? ¿Quién es responsable (responsabilidad)? Con un «ser humano al mando», ¿a qué intereses representa? ¿Cómo trazar una línea divisoria entre el «control del trabajador» y la de los trabajadores? Las respuestas a estas preguntas podrían allanar el camino hacia una implantación de la IA que beneficie a todos.