Cargando. Por favor, espere

Portada

I. Robocalificación de la solvencia de los consumidores y usuarios

Damos comienzo a este artículo incitado por la Sentencia de 27 de febrero de 2025 de la Sala Primera del TJUE con un neologismo que alude de forma implícita a las leyes de la robótica de Asimov para llamar la atención sobre los riesgos que los abusos de los sistemas de inteligencia artificial pueden implicar para los consumidores en general y para los clientes bancarios en particular. Y esta reflexión introductoria nace del análisis de la Sentencia del TJUE de 27 de febrero de 2025 que trata de un supuesto en el que la evaluación crediticia errónea de la solvencia financiera de un consumidor —realizada de forma automatizada por una empresa de rating— le impidió celebrar un contrato de telefonía móvil con una empresa de telefonía.

Por lo anterior, nos ratificamos en el criterio que venimos sosteniendo —frente a mensajes desreguladores erróneos e interesados que vienen de otras zonas del Planeta— en defensa de la Ley Europea de Inteligencia Artificial (Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo de 13 de junio de 2024) (LA LEY 16665/2024), en el sentido de que la regulación y el control de los sistemas de inteligencia artificial es condición imprescindible para que los consumidores y usuarios no pasen a integrar una suerte de casta de «intocables» («dalit») en el mercado de bienes y servicios.

II. Identificación de la Sentencia

El día 27 de febrero de 2025 la Sala Primera del TJUE dicto su Sentencia en el asunto C-203/22 (Dun & Bradstreet Austria) que trata temas esenciales para la aplicación presente y futura de la regulación del mercado, de la protección del consumidor ante la utilización abusiva de la inteligencia artificial y, en particular, su aplicación en el mercado bancario. Entre ellos, podemos mencionar la protección de datos personales, las decisiones automatizadas (incluida la elaboración de perfiles para la apreciación de la solvencia de un consumidor), el acceso a la información significativa sobre la lógica aplicada a la elaboración de perfiles, la verificación de la exactitud de la información facilitada y del resultado obtenido, etc.

La petición se presentó en el contexto de un litigio entre un ciudadano particular (CK) y la Administración Municipal de Viena (Austria) en relación con la ejecución forzosa de una resolución judicial por la que se ordenaba a la empresa Dun & Bradstreet Austria GmbH («D&B»), especializada en la realización de evaluaciones crediticias, para que facilitara a CK información significativa sobre la lógica aplicada a la elaboración de un perfil relativo a sus datos personales.

III. La doctrina que sienta el TJUE en su Sentencia de 27 de febrero de 2025

La Sentencia del TJUE de 27 de febrero de 2025, al pronunciarse sobre el supuesto descrito, cuando interpreta los artículos 15.1. h), y 22 del Reglamento general de protección de datos (RGPD) (LA LEY 6637/2016) y el artículo 2.1, de la Directiva de secretos comerciales; da un paso más en la dirección de tutela informativa del consumidor interesado ya iniciada por la Sentencia de la Sala Primera del TJUE de 7 de diciembre de 2023 (asunto C-634/21 (LA LEY 313981/2023), SCHUFA Holding y otros (Scoring)

En concreto, la doctrina que sienta el TJUE establece:

  • a) En su primera declaración, que, en caso de una evaluación crediticia automatizada; el interesado tiene derecho a que se le explique cómo se ha tomado la decisión que le afecta con una explicación que le permita comprender e impugnar la decisión automatizada.
  • b) En su segunda declaración, que la autoridad de control o el órgano jurisdiccional competente deben valorar en qué medida una negativa de la empresa de calificación crediticia a proporcionar la anterior información al interesado esta justificada por incluir datos de terceros protegidos el RGPDP o secretos comerciales protegidos por la Directiva (UE) 2016/943 (LA LEY 9592/2016).

IV. Reflexión sobre la protección del consumidor ante la utilización abusiva de la inteligencia artificial

Nos parece que esta Sentencia de 27 de febrero de 2025 de la Sala Primera del TJUE resulta extremadamente útil para reflexionar sobre la protección del consumidor ante la eventual utilización abusiva de la inteligencia artificial.

En concreto, los sistemas de evaluación automatizada de la solvencia de un consumidor pueden tener acomodo en dos tipos de sistemas de inteligencia artificial previstos en la LEIA:

  • a) Los sistemas de inteligencia artificial prohibidos con salvedades.
  • b) Los sistemas de inteligencia artificial de alto riesgo, por incidir en el acceso a servicios privados esenciales y a servicios y prestaciones públicos esenciales y disfrute de estos servicios y prestaciones, en concreto, en el mercado financiero.

Es previsible que, en el futuro inmediato, los tribunales prediquen la responsabilidad solidaria de las empresas calificadoras de la solvencia y de las empresas prestadoras de productos y servicios que utilizan aquellas calificaciones por los daños ocasionados al consumidor erróneamente calificado.

Scroll