Cargando. Por favor, espere

Portada

La manipulación de imágenes con inteligencia artificial y la creación de vídeos basados en las conocidas como deepfakes han acaparado la atención a raíz de un vídeo publicado por el Partido Popular que mostraba a políticos socialistas en una supuesta “isla de las corrupciones”, aunque finalmente lo retiraron tras una queja diplomática de República Dominicana, país al que se mencionaba en la pieza audiovisual. También generó expectación el vídeo publicado por el presidente de Estados Unidos, Donald Trump, donde mostraba a la franja de Gaza, actualmente devastada por la guerra con Israel, como un centro de vacaciones de lujo. Pero hay otros casos que causan un enorme daño como es la manipulación de imágenes con IA de menores de edad para que aparezcan desnudos.

Han sido varios los casos de menores que han utilizado la IA para manipular imágenes de sus compañeras de colegio y crear otras de un elevado nivel de realismo en las que aparecen desnudas, aunque en la realidad nunca lo hayan estado. El primero de ellos fue el caso que protagonizó el municipio extremeño de Almendralejo, en septiembre de 2023, que derivó en un profundo debate sobre las implicaciones de esta tecnología. Hace solo unas semanas, otro episodio se dio en un instituto de la localidad leonesa de Villablino, donde cuatro alumnos de secundaria fueron denunciados por crear estos contenidos con imágenes de otras alumnas y de docentes y difundirlos por grupos de WhatsApp.

Se trata de los deepnudes, que son imágenes generadas por la inteligencia artificial y programas gráficos que utilizan unos algoritmos entrenados para imitar la apariencia de personas reales en situaciones comprometedoras. Implica utilizar una fotografía de una persona real vestida, que se procesa por el sistema de IA para presentar una imagen que representa a la misma persona desnuda. El efecto es casi real, con gran precisión en la iluminación o la textura de la piel. Pueden causar daño a la personas cuya imagen se ha manipulado y, la vez, este activo se puede utilizar de manera maliciosa para difamar, acosar, chantajear o menoscabar su reputación.

La imagen de las personas es un dato personal y los menores son un colectivo que están especialmente protegidos. La Agencia Española de Protección de Datos (AEPD) advierte que Ley de Protección Integral al Menor y a la Infancia contempla que los menores que superen los 14 años pueden ser sancionados por infracciones a la normativa de privacidad. Además, si los hechos se producen antes de los 18 años, serán sus padres o sus tutores quienes tendrán que responder de la multa.

A partir de 14 años los menores tienen responsabilidad penal si cometen un delito, por lo que es fundamental que se les expliquen los riesgos de grabar y manipular imágenes de otras personas con IA o con cualquier otra aplicación, así como publicarlas o difundirlas a través de distintas plataformas.

Retirada inmediata en el Canal prioritario

En un contexto de uso extensivo de los dispositivos móviles cada vez a edades más tempranas, se dan con más frecuencia casos en los que se comparten o difunden imágenes no solo de deepnudes, sino también de mujeres víctimas de violencia de género, así como otros contenidos audiovisuales sensibles en los que los protagonistas son de menores de edad o de otros colectivos vulnerables, víctimas de acoso laboral o escolar (como el bullying o el cyberbullying), de acoso sexual a menores (grooming o sexting), entre otros casos.

La AEPD tiene a disposición de los usuarios el Canal prioritario, una herramienta para la retirada inmediata de contenidos de este tipo que se puede utilizar en situaciones excepcionalmente delicadas. Es el caso de fotografías o vídeos de carácter sexual o que muestren actos de agresión o de violencia que supongan un alto riesgo para los derechos y libertades de los afectados. Las víctimas deben ser personas españolas o encontrarse en España, y está especialmente enfocado en el daño a menores de edad o de víctimas de violencia por razón de género.

¿Quiénes pueden utilizar este canal? La propia persona afectada (más aún si es menor de edad) o cualquier otra que tenga conocimiento de la difusión de este tipo de contenidos. Eso sí, deben ser especialmente sensibles y poner en peligro su privacidad.

Regulación de imágenes con IA

La semana pasada hubo novedades sobre la regulación del uso de imágenes manipuladas con inteligencia artificial. El Consejo de ministros del martes 11 de marzo aprobó el Anteproyecto de ley para el buen uso y la gobernanza de la inteligencia artificial que pretende garantizar un uso “ético, inclusivo y beneficioso” de esta tecnología.

Uno de sus objetivos es que los usuarios tengan la información necesaria para diferenciar con nitidez los contenidos creados con IA de los que son reales: la norma obligará a identificarlos con para evitar confusiones y posibles casos de manipulación. Además, incluirá un régimen sancionador con multas que van de los 7,5 a los 35 millones de euros o entre el 2 y el 7% de la facturación mundial de la empresa responsable.

De este modo, se avanza en el camino marcado por el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024 (LA LEY 16665/2024) (LA LEY 16665/2024), o Reglamento de Inteligencia Artificial (RIA) (LA LEY 16665/2024). Esta norma establece un marco jurídico uniforme tanto para el desarrollo como para la introducción en el mercado, la puesta en servicio y la utilización de sistemas de IA conforme a los valores de la Unión Europea (UE) y a la Carta de Derechos Fundamentales.

Desde el pasado 2 de febrero ha entrado en vigor la prohibición de una serie de usos de la IA en todo el territorio europeo. Algunos de ellos también están relacionados con la utilización de imágenes:

Técnicas subliminales y manipulación. La prohibición pretende evitar la manipulación o el engaño deliberado a la conciencia de una persona, también cuando se trata de prácticas que busquen alterar su comportamiento, por ejemplo, mediante el uso sutil e imperceptible de imágenes o vídeos, entre otros. Con ello, se pretende frenar una posible merma la capacidad humana para adoptar decisiones informadas o para cambiar de criterio ante la posibilidad que les perjudique a ellas o a otras.

Imágenes faciales extraídas de la red. El reglamento niega la posibilidad de que se use la IA para crear o ampliar bases de datos de reconocimiento facial a través de imágenes faciales extraídas de internet o de circuitos cerrados de televisión.

Clasificación mediante categorización biométrica. Se veta la categorización biométrica destinada a clasificar individualmente a las personas en base a sus datos biométricos con el fin de deducir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida u orientación sexuales. Sin embargo, sí se permite el etiquetado o filtrado de datos biométricos que se hayan adquirido lícitamente, como imágenes, basados en datos biométricos. También se permite la categorización de datos biométricos en el ámbito de la garantía del cumplimiento del Derecho.

Scroll