Cargando. Por favor, espere

Portada

Carlos B Fernández. Según el artículo 93 del Reglamento (UE) 2022/2065 (LA LEY 22694/2022), de 19 de octubre, conocido como Reglamento de Servicios Digitales (Digital Services Act, DSA, en inglés), esta norma, que entró en vigor el 16 de noviembre de 2022, comenzará a ser aplicable en su integridad a partir del 17 de febrero de 2024.

Debe tenerse en cuenta, no obstante, que ya desde el mismo día de su entrada en vigor, algunos de sus preceptos (arts. 24, apartados 2, 3 y 6; 33, apartados 3 a 6; 37, apartado 7; 40, apartado 13 y 43 y las secciones 4, 5 y 6 del capítulo IV) ya habían comenzado a ser aplicables.

Se trata de una norma extensa y compleja, compuesta por 93 artículos precedidos de 156 Considerandos. Por eso ha resultado particularmente interesante una sesión organizada por el despacho Garrigues en la que se analizaron sus principales características y se presentó una “Guía práctica de implementación del Reglamento de Servicios Digitales”, elaborada por esta firma para ayudar tanto a los prestadores de servicios intermediarios como a los titulares de contenidos a hacer uso de este nuevo marco.

Como explicó Cristina Mesa, socia de Garrigues, el Reglamento de Servicios Digitales impacta tanto en las empresas como en las personas, porque regula cómo retirar contenidos ilícitos de Internet sin afectar a los derechos fundamentales de los ciudadanos.

Para ello, en lo que son sus principales características, mantiene lo básico de la regulación anterior (constituida, principalmente, por la Directiva sobre el Comercio Electrónico, de 2000, y, en España, por la Ley de Servicios de la Sociedad de la Información (LA LEY 1100/2002), de 2002), actualizándolo. Principalmente, se mantiene la forma de atribuir responsabilidad a los responsables de las plataformas; se introduce un bloque de obligaciones de diligencia debida y se refuerzan las medidas de supervisión y gobernanza.

Y siguiendo una pauta ya frecuente en la legislación europea, está muy basada en los principios del compliance, es decir, no define qué es y que no es lícito, sino que se remite para ello a las legislaciones internas de cada Estado miembro.

Ámbito de aplicación

En cuanto a su ámbito de aplicación, explicó Mesa, y también en línea con la reciente normativa europea en el ámbito digital, no importa el lugar dónde se encuentre radicado el prestador del servicio, sino el hecho de que preste servicios en la UE, con independencia de su lugar de establecimiento o ubicación y en la medida en que ofrezcan servicios en la Unión, en base al criterio de “conexión sustancial”. Este debe apreciarse cuando el prestador de servicios tenga un establecimiento en la Unión o, a falta de dicho establecimiento, cuando el número de destinatarios del servicio en uno o varios Estados miembros sea significativo en relación con su población, o cuando se orienten actividades hacia uno o más Estados miembros.

Servicios incluidos en el ámbito de aplicación de la norma

El DSA regula a los mismos prestadores de servicios que la Directiva de 2000 y la LSSI, es decir: los servicios de mera transmisión (como los servicios de acceso a internet); los servicios de memoria caché (como los servicios de almacenamiento temporal de información) y los servicios de alojamiento de datos.

Estos últimos se clasifican a su vez en plataformas en línea; mercados digitales en línea y motores de búsqueda. Tanto para las plataformas como para los motores de búsqueda se introduce, además, una categoría especial que los considera “de muy gran tamaño” (abreviándolos entonces en inglés, como VLOP o VLOSE).

Para identificar cuándo se está en presencia de un prestador de servicios de plataforma, lo fundamental, explicó Cristina Mesa, es reconocer el servicio subyacente que se está prestando. Es decir, si la plataforma ejerce un papel neutral o activo en la prestación del servicio.

Responsabilidad por la difusión de contenidos ilícitos

El Reglamento no obliga al prestador de servicios on line a retirar de forma activa contenidos que puedan ser ilícitos, sino a colaborar en su retirada.

Para ello se positivizan dos principios ya establecidos por la jurisprudencia: la no obligación de monitorización permanente de los contenidos que se alojan en la plataforma y la denominada “cláusula del buen samaritano”, en virtud de la cual, si el titular de la plataforma ejerce un control sobre los contenidos que aloja, no pierde por ello su exención de responsabilidad por dichos contenidos.

Además, se aplica una obligación específica para los marketplaces (espacios comerciales virtuales que actúan como intermediarios entre los compradores y vendedores on line). Estos tienen que dejar claro en sus condiciones de uso que los productos que se comercian a través de ellos se adquieren de un tercero, no del propio prestador del servicio de mediación.

En cuanto a las obligaciones de diligencia debida, hay que destacar que todos los prestadores de servicios on line tienen más obligaciones cuanto mayor es su tamaño y cuanto más cercanos se sitúan del usuario (con algunas excepciones para las PYMES).

Mesa destacó, en este sentido, la importancia de los términos y condiciones de uso de las plataformas, que deberán adaptarse a la nueva norma, siendo lo fundamental que el prestador del servicio actúe de forma transparente (aunque sea estricta en cuanto a sus condiciones) y no arbitraria.

Moderación de contenidos

Ricardo López, abogado del área de PI de Garrigues, se refirió a esta actividad, que el artículo 3, letra t) del Reglamento define como aquella, realizada por los prestadores de servicios intermediarios, destinadas a detectar, identificar y actuar contra contenidos ilícitos o información incompatible con sus condiciones generales, que los destinatarios del servicio hayan proporcionado.

A estos efectos, explicó que quien modera es el intermediario del servicio, ya sea manual o automatizadamente; que lo que se modera son los contenidos ilícitos o que supongan un incumplimiento de los términos y condiciones de la plataforma y que el resultado de esa moderación puede consistir en la adopción de medidas que o bien afecten a la disponibilidad, visibilidad, y accesibilidad de dicho contenido ilícito o de dicha información (como la relegación, la desmonetización de la información, el bloqueo de esta o su supresión), o bien que afecten a la capacidad de los destinatarios del servicio de proporcionar dicha información (como la supresión o suspensión de la cuenta de un destinatario del servicio).

Esta actividad se basa en la obligación de adaptar los términos y condiciones del servicio al contenido de la norma y en desplegar por parte del responsable una actividad objetiva y no discriminatoria.

El fundamento de la moderación se encuentra en la solicitud de una autoridad pública, o de un usuario. En el primer caso, se requiere la invocación de una base legal, de una motivación jurídica, en la identificación del contenido que se quiere retirar (identificando su url), en la definición del ámbito territorial de la moderación que se pretende y en la información de la posibilidad de recurso contra dicha solicitud.

Cuando es un usuario el que solicita la moderación, las exigencias son parecidas: se requiere una identificación precisa de los contenidos que se pretende moderar, una declaración de buena fe en cuanto al fondo de la pretensión que evite actuaciones maliciosas y la exclusión de que se trate de una denuncia abusiva.

Esta solicitud supone para el titular de la plataforma la presunción de su conocimiento efectivo de la pretensión y la obligación de acusar recibo de la misma, frente a la que cabe una decisión motivada y la utilización de los medios automatizados, cuando proceda.

Los efectos de la moderación, como hemos indicado anteriormente, pueden consistir en el bloqueo del acceso o en la desmonetización de la información.

Alertadores fiables

Los prestadores de plataformas en línea adoptarán las medidas técnicas y organizativas necesarias para asegurarse de que se otorgue prioridad y de que se tramiten y resuelvan sin dilación indebida, las notificaciones enviadas por los alertadores fiables, a través de los mecanismos establecidos al efecto.

Los alertadores fiables son una figura creada por la DSA, cuya condición será otorgada, previa solicitud de cualquier entidad que lo desee, por el coordinador de servicios digitales del Estado miembro donde el solicitante esté establecido, a un solicitante que haya demostrado que: a) posee conocimientos y competencias específicos para detectar, identificar y notificar contenidos ilícitos; b) no depende de ningún prestador de plataformas en línea y, c) realiza sus actividades con el fin de enviar notificaciones de manera diligente, precisa y objetiva.

Plataformas y servicios de búsqueda de muy gran tamaño

En virtud del artículo 33 del Reglamento, se consideran plataformas en línea y motores de búsqueda en línea de muy gran tamaño a aquellos que tengan un promedio mensual de destinatarios del servicio activos en la Unión igual o superior a cuarenta y cinco millones, y estén designados como tal por la Comisión Europea.

Estos intermediarios están sometidos a una serie de obligaciones específicas, como son: a) un diseño de interfaz de usuario que excluya los patrones oscuros o diseños que tienden a manipular la conducta del usuario, como la dificultad de salida o la alteración del orden de las opciones; b) la transparencia algorítmica de los servicios de documentación, destinada a que los usuarios puedan saber porqué se les muestra lo que se les muestra en una página web o en un servicio de recomendación (lo que no implica dar a conocer el código fuente del algoritmo, sino solos sus parámetros principales) y, c) obligaciones de los marketplaces de realizar una trazabilidad de los vendedores que ofrecen sus servicios en el los mismos.

La necesidad del enfoque transversal de la normativa aplicable

Alejandro Padín, socio de Garrigues explicó, finalmente, que para la adecuada comprensión y aplicación de esta normativa es necesario un enfoque transversal que incluya el RGPD, la DSA, la DMA, la ley de Gobernanza del Dato y la Ley del Dato.

Todas ellas incluyen unos principios comunes que incluyen la incorporación de sus principios desde el diseño; la necesidad de realizar evaluación de riesgos; la transparencia y la protección de los derechos de los ciudadanos. Y, a la vez, se enfrentan a unas dificultades comunes, como son saber qué norma hay que aplicar en cada caso; la multiplicación de las autoridades de supervisión, la coincidencia de diferentes normativas sobre la misma materia y la abundancia de conceptos jurídicos indeterminados.

Ello implica que los abogados van a tener que conocer bien la normativa pero también a quién tienen que dirigirse para aplicarla, lo que supone conocer al regulador, sus criterios y su actividad.

En el caso español, el regulador en materia de servicios digitales va a ser la Comisión Nacional de los mercados y la competencia, que va a contar con competencias exclusivas sobre los intermediarios de mayor tamaño y no exclusivas sobre los demás (para evitar la posibilidad de elección de foro o country shopping).

Finalmente, Padín recordó que el sistema de sanciones previsto por el Reglamento incluye desde sanciones, que deben ser disuasorias (pudiendo alcanzar con ello el 6% del total de su volumen de negocios anual en todo el mundo en el ejercicio fiscal anterior); multas coercitivas (de hasta el 5 % del promedio diario de los ingresos o del volumen de negocios anuales en todo el mundo del ejercicio fiscal anterior por día) y sanciones, que pueden llegar a la suspensión del servicio.

Scroll