Cargando. Por favor, espere

El papel de la inteligencia artificial en la lucha contra los contenidos ilícitos en línea

El papel de la inteligencia artificial en la lucha contra los contenidos ilícitos en línea

Barrio Andrés, Moisés

LA LEY 8815/2025

Normativa comentada
Ir a Norma Regl. 2021/784 UE, de 29 Abr. (lucha contra la difusión de contenidos terroristas en línea)
Comentarios
Resumen

Los proveedores de servicios en línea, y en particular los gigantes tecnológicos, se ven sometidos a una presión cada vez mayor para identificar y moderar los contenidos ilegales en sus servicios y plataformas. Dado que la gran avalancha de contenidos ilegales hace que la moderación de contenidos sea cada vez más difícil, se necesitan herramientas de IA sólidas y fiables para localizar este tipo de contenidos. Sin embargo, a pesar de todos los avances tecnológicos de los últimos años, todavía no es factible una herramienta totalmente automatizada que pueda distinguir los contenidos ilegales de los demás, sin dejar de mantener un equilibrio entre los derechos fundamentales en juego. De ahí la necesidad de seguir investigando en este campo para conseguir herramientas más eficaces.

Portada

Moisés Barrio Andrés

Letrado del Consejo de Estado. Asesor de diversos Estados y de la Unión Europea en materia de regulación digital

Profesor de Derecho digital

Director del Diploma de Alta Especialización en Legal Tech y transformación digital (DAELT) de la Escuela de Práctica Jurídica de la Universidad Complutense de Madrid

1. Introducción

El marco jurídico de la Unión Europea (UE) tipifica como ilegales cuatro tipos de contenidos: (i) el material de abuso sexual infantil (Directiva sobre abuso y explotación sexual infantil) (1) ; (ii) la incitación al odio racista y xenófobo (Decisión marco contra el racismo) (2) ; (iii) los contenidos terroristas (Directiva contra el terrorismo) (3) ; y (iv) aquellos contenidos que vulneren los derechos de propiedad intelectual (Directiva sobre derechos de autor en el mercado único digital) (4) . Además, algunos Estados miembros, como Alemania (5) y Francia (6) , han promulgado legislación nacional sobre contenidos ilícitos y moderación de contenidos.

La Directiva sobre comercio electrónico de 2000 (DCE) (7) establece un marco regulador para los proveedores de servicios en línea en la UE. La Comisión Europea, en su Recomendación de 1 de marzo de 2018 (LA LEY 3044/2018) (8) , sostiene que es posible la supervisión voluntaria de contenidos por iniciativa propia de los proveedores de servicios, sin perjuicio de la exención de responsabilidad del artículo 14 de la DCE o de la prohibición de las obligaciones generales de supervisión del artículo 15 de la DCE. En dicha Recomendación, la Comisión estimula la retirada voluntaria de contenidos para abordar eficazmente los contenidos ilícitos en línea a partir de 2018. A tal fin, anima a los proveedores de servicios a que adopten, cuando proceda, «medidas activas, proporcionadas y específicas» que podrían implicar el uso de «medios automatizados».

Sin embargo, en los últimos años, la Comisión ha virado hacia un enfoque que obliga cada vez más a las plataformas en línea a detectar y denunciar los contenidos ilegales, aduciendo que la acción voluntaria es insuficiente y que es deber de las plataformas en línea proteger a sus usuarios e impedir los contenidos ilegales. A la luz de sus recursos y conocimientos, la participación de los gigantes tecnológicos es aún más necesaria en la lucha contra los contenidos ilegales en línea.

La subsiguiente incorporación al marco jurídico de la UE ha sido el Reglamento de Servicios Digitales (DSA por sus siglas inglesas) (9) , que entró en vigor en noviembre de 2022 y que complementa la Directiva sobre comercio electrónico. Incluye disposiciones relativas a las obligaciones de moderación de contenidos para determinadas plataformas en línea. Las «plataformas en línea de muy gran tamaño» (VLOP, por sus siglas en inglés) y los «motores de búsqueda en línea de muy gran tamaño» (VLOSE, por sus siglas en inglés) están sujetos a obligaciones específicas, incluida la implementación de sistemas basados en el riesgo para detectar y abordar contenidos ilegales (art. 34 DSA). Otro ejemplo de esta tendencia es el Reglamento relativo a la prevención de la difusión de contenidos terroristas en línea a partir de 2021 (10) , que obliga a los proveedores de servicios de alojamiento a adoptar «medidas específicas» para hacer frente a los contenidos terroristas en sus servicios (art. 5 del Reglamento (UE) 2021/784 (LA LEY 11002/2021)). Además, las autoridades nacionales competentes pueden enviar órdenes de retirada exigiendo a los proveedores de servicios de alojamiento que retiren los contenidos terroristas «tan pronto como sea posible y, en cualquier caso, en el plazo de una hora desde la recepción de la orden de retirada» (art. 3.3 del Reglamento (UE) 2021/784 (LA LEY 11002/2021)).

Además, en el contexto de la lucha contra el material de abuso sexual infantil en línea, la Comisión está presionando para adoptar un nuevo reglamento que instituirá un marco de evaluaciones de riesgo supervisadas, combinado con obligaciones para los proveedores de detectar y denunciar el material de abuso sexual infantil (Reglamento CSAM) (11) . El proyecto de Reglamento está siendo objeto de fuertes críticas y su tramitación aún no ha concluido a fecha de escribir estas líneas.

Por lo demás, el Reglamento de inteligencia artificial (RIA) (LA LEY 16665/2024) (12) establece unas medidas de transparencia y marcado de contenidos para los proveedores y responsables del despliegue de sistemas de IA. Su objetivo es asegurar que los usuarios sean informados cuando interactúan con IA. Se impone el marcado de contenido sintético y la divulgación de contenido generado o manipulado artificialmente, con excepciones para sistemas autorizados por ley para actividades relacionadas con delitos. Estas medidas buscan garantizar la transparencia y proteger los derechos de las personas en el uso de tecnologías de IA. En síntesis, los proveedores garantizarán que los sistemas de IA destinados a interactuar con personas físicas informen claramente a los usuarios de que están interactuando con un sistema de IA, a menos que sea evidente para una persona razonablemente informada. Y los proveedores de sistemas de IA que generen contenido sintético, como audio, imagen, vídeo o texto, deben asegurarse de que los resultados estén marcados en un formato legible por máquina para que se pueda detectar que han sido generados o manipulados artificialmente.

En todo caso, puede concluirse que los proveedores de servicios en línea están sometidos a una presión cada vez mayor para detectar contenidos ilegales en sus servicios y plataformas.

2. Uso de la IA

Para detectar, identificar y hacer frente a los contenidos ilegales en sus plataformas, los proveedores de servicios han desarrollado sistemas de moderación de contenidos. Se trata de medidas que afectan a la disponibilidad, visibilidad y accesibilidad de los contenidos ilícitos o a la capacidad del usuario para proporcionar dichos contenidos, como la degradación, la desmonetización, la inhabilitación del acceso a los contenidos o su eliminación, o incluso la cancelación de la cuenta de un usuario (art. 3.t) DSA). Dada la enorme cantidad de información debida al continuo aumento del material generado por los usuarios, resulta cada vez más difícil, si no totalmente imposible, que los moderadores humanos moderen eficazmente esta mastodóntica proliferación de contenidos.

Además, la exposición repetida y prolongada a contenidos gráficos y violentos puede tener un efecto agotador en el bienestar psicológico de los moderadores humanos. De ahí la conveniencia de moderar los contenidos mediante mecanismos de notificación y retirada, como herramientas que buscan palabras clave previamente identificadas y herramientas de inteligencia artificial que identifican dinámicamente los contenidos problemáticos basándose en modelos de aprendizaje automático. La DSA también reconoce la importancia de la moderación de contenidos y el papel de las herramientas automatizadas. Hace hincapié en la necesidad de contar con sistemas de moderación eficaces y establece determinados requisitos para el uso de herramientas automatizadas, como obligaciones de transparencia (véase, por ejemplo, el art. 15.1.c) DSA).

La precisión de las tecnologías de IA depende de los conjuntos de datos en los que se basan

Un tipo de aplicación que se utiliza actualmente es el hashing. Los algoritmos de hashing se emplean para extraer de una imagen una firma alfanumérica única y compacta, también llamada hash o huella digital de la imagen. Esa huella dactilar recién generada puede compararse después con las huellas digitales de otras fotos que se suban a un servicio en línea. Esto permite buscar activamente contenidos ilegales conocidos y tomar medidas para eliminarlos. Por ejemplo, Microsoft utiliza PhotoDNA en sus servicios para buscar imágenes ilegales. Aunque el hashing es una técnica rápida y fiable, su principal problema es que sólo puede utilizarse para buscar contenidos conocidos. No es una técnica eficaz para identificar contenidos nuevos y desconocidos.

Por eso, las herramientas de IA basadas en modelos de aprendizaje automático pueden utilizarse para buscar contenidos ilegales hasta ahora desconocidos. Sin embargo, parece que, a pesar de todos los avances en aprendizaje automático e innovación técnica de los últimos años, por el momento no existe una herramienta totalmente automática que pueda distinguir los contenidos ilegales de otros contenidos. La precisión de las tecnologías de IA depende de los conjuntos de datos en los que se basan. Las herramientas de aprendizaje automático requieren una gran cantidad de datos de entrenamiento de alta calidad, pero es difícil obtenerlos en el caso de los contenidos ilegales. Un problema considerable que obstaculiza el avance de estas tecnologías de IA es, por tanto, la falta de bases de datos (debidamente etiquetadas), mientras que la cuestión del almacenamiento de contenidos ilegales en los conjuntos de datos suscita varios problemas éticos y legales. Por eso, el artículo 10.5 del RIA (13) establece una excepción para tratar excepcionalmente categorías especiales de datos personales para detectar y corregir sesgos.

3. La imprescindible supervisión humana

Es crucial tener en cuenta las cuestiones relativas a la posibilidad de falsos positivos, que pueden conducir al bloqueo de contenidos legítimos y a la vulneración de otros derechos fundamentales, como el derecho a la libertad de expresión (protegido en el artículo 10 del Convenio Europeo de Derechos Humanos (LA LEY 16/1950)). Incluso para los moderadores humanos puede resultar difícil determinar la naturaleza ilegal de determinados contenidos, por ejemplo en el ámbito de la incitación al odio. Además, los elementos del contexto, como las tradiciones locales, las lenguas, la cultura, la política, etc., pueden crear casos límite en los que no resulte del todo evidente si un determinado contenido infringe una ley (o las normas de uso de la plataforma) o no. Como las herramientas actuales de IA carecen de la capacidad de discernir el contexto o detectar matices, la mejor práctica del sector es utilizar herramientas automatizadas para reducir la gran afluencia de contenidos y marcar posibles contenidos ilegales para que los revisen expertos humanos. En general, el enfoque humano en el bucle es un componente crucial en los sistemas de moderación de contenidos, sobre todo en situaciones en las que se requieren matices y contextualización o en las que las tasas de error son elevadas.

La necesidad de supervisión humana en los procesos de moderación de contenidos también se subraya en la DSA (cdo. 58 DSA) y en el RGPD, en caso de que se traten datos personales (art. 22 RGPD (LA LEY 6637/2016)). Además, el RIA impone la necesidad de supervisión humana para los sistemas de IA incluidos en la categoría de alto riesgo (art. 14 RIA). En las enmiendas, el Parlamento Europeo incluso propuso incluir los algoritmos utilizados por las VLOP para recomendar contenidos generados por los usuarios como de alto riesgo (véanse las enmiendas 73 y 740). Sin embargo, la versión final del RIA no establece esta clasificación. Ahora bien, dado que el RIA es de aplicación concurrente con la DSA, queda por ver cómo interactuarán ambas legislaciones, especialmente en lo que se refiere a la supervisión humana.

4. A modo de conclusión

Los proveedores de servicios en línea, y en particular los gigantes tecnológicos, se ven sometidos a una presión cada vez mayor para identificar y moderar los contenidos ilegales en sus servicios y plataformas. Dado que la gran avalancha de contenidos ilegales hace que la moderación de contenidos sea cada vez más difícil, se necesitan herramientas de IA sólidas y fiables para localizar este tipo de contenidos. Sin embargo, a pesar de todos los avances tecnológicos de los últimos años, todavía no es factible una herramienta totalmente automatizada que pueda distinguir los contenidos ilegales de los demás, sin dejar de mantener un equilibrio entre los derechos fundamentales en juego. De ahí la necesidad de seguir investigando en este campo para conseguir herramientas más eficaces.

Además, sigue pendiente la cuestión de si las herramientas totalmente automatizadas llegarán a ser una realidad, a pesar de los posibles avances tecnológicos en el futuro. La contextualización y los matices son necesarios en los casos límite, y siempre debe haber margen para el debate y la interpretación cuando se trata de equilibrar derechos fundamentales. Así como la posibilidad de recurrir la retirada de contenidos. Sin embargo, aunque las herramientas actuales de moderación por IA todavía no están lo suficientemente desarrolladas para funcionar de forma independiente, las vigentes herramientas son ya una ayuda importante. Pueden —y deben— utilizarse en el marco de las medidas de moderación de contenidos existentes para identificar contenidos potencialmente ilegales, sujetos a una supervisión y revisión humanas adecuadas.

(1)

Directiva 2011/93/UE del Parlamento Europeo y del Consejo, de 13 de diciembre de 2011 (LA LEY 24038/2011), relativa a la lucha contra los abusos sexuales y la explotación sexual de los menores y la pornografía infantil y por la que se sustituye la Decisión marco 2004/68/JAI (LA LEY 12140/2003) del Consejo.

Ver Texto
(2)

Decisión Marco 2008/913/JAI del Consejo, de 28 de noviembre de 2008 (LA LEY 18047/2008), relativa a la lucha contra determinadas formas y manifestaciones de racismo y xenofobia mediante el Derecho penal.

Ver Texto
(3)

Directiva (UE) 2017/541 del Parlamento Europeo y del Consejo, de 15 de marzo de 2017 (LA LEY 4537/2017), relativa a la lucha contra el terrorismo y por la que se sustituye la Decisión marco 2002/475/JAI (LA LEY 8400/2002) del Consejo y se modifica la Decisión 2005/671/JAI del Consejo.

Ver Texto
(4)

Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo, de 17 de abril de 2019 (LA LEY 8414/2019), sobre los derechos de autor y derechos afines en el mercado único digital y por la que se modifican las Directivas 96/9/CE (LA LEY 4616/1996) y 2001/29/CE (LA LEY 7336/2001).

Ver Texto
(5)

Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz - NetzDG), de 1 de septiembre de 2019.

Ver Texto
(6)

LOI no 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur Internet.

Ver Texto
(7)

Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000 (LA LEY 7081/2000), relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior (Directiva sobre el comercio electrónico).

Ver Texto
(8)

Recomendación (UE) 2018/334 de la Comisión, de 1 de marzo de 2018, sobre medidas para combatir eficazmente los contenidos ilícitos en línea.

Ver Texto
(9)

Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, de 19 de octubre de 2022, relativo a un mercado único de servicios digitales (LA LEY 22694/2022) y por el que se modifica la Directiva 2000/31/CE (LA LEY 7081/2000) (Reglamento de Servicios Digitales).

Ver Texto
(10)

Reglamento (UE) 2021/784 del Parlamento Europeo y del Consejo, de 29 de abril de 2021 (LA LEY 11002/2021), sobre la lucha contra la difusión de contenidos terroristas en línea.

Ver Texto
(11)

Comisión Europea, Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas para prevenir y combatir el abuso sexual de los menores, de 11 de mayo de 2022. COM(2022) 209 final.

Ver Texto
(12)

Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (LA LEY 16665/2024) y por el que se modifican los Reglamentos (CE) n.o 300/2008 (LA LEY 3589/2008) (UE) n.o 167/2013 (LA LEY 2703/2013) (UE) n.o 168/2013 (UE) 2018/858 (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE (LA LEY 13360/2014) (UE) 2016/797 (LA LEY 8246/2016) y (UE) 2020/1828 (Reglamento de Inteligencia Artificial (LA LEY 16665/2024)). Un examen práctico del RIA lo acabo de realizar en Barrio Andrés, M. Reglamento UE de inteligencia artificial (LA LEY 16665/2024) (Incluye los actos de desarrollo y ejecución de la AI Act). Francis Lefebvre, Madrid, 2025. De forma más exhaustiva, vid. Barrio Andrés, M. (dir.). Comentarios al Reglamento Europeo de Inteligencia Artificial (LA LEY 16665/2024). Aranzadi LA LEY, Madrid, 2024.

Ver Texto
(13)

El artículo 10.5 del RIA establece que los proveedores de sistemas de inteligencia artificial de alto riesgo pueden tratar excepcionalmente categorías especiales de datos personales, siempre que se ofrezcan garantías adecuadas para proteger los derechos y libertades fundamentales de las personas físicas. Este tratamiento es necesario para detectar y corregir sesgos en los sistemas de IA, y se permite solo si el uso de datos sintéticos o anonimizados no es suficiente para este propósito. Además, las categorías especiales de datos personales deben estar sujetas a limitaciones técnicas y medidas de seguridad avanzadas, como la seudonimización, para proteger la privacidad de los individuos.

Ver Texto
Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll