Cargando. Por favor, espere

Portada

José Miguel Barjola Merino. Los contenidos audiovisuales modificados para crear realidades falseadas, conocidos como deepfakes , constituyen una realidad cada vez más extendida. Un fenómeno que comienza a inquietar a los juristas, que alertan de las importantes amenazas en materia de ciberseguridad que trae consigo la nueva tendencia.

Los deepfakes son archivos audiovisuales creados por sistemas informáticos basados en inteligencia artificial que ermiten producir vídeos manipulados extremadamente realistas. El realismo es tal que puede ser imposible saber que ha sido falseado; algo peligroso, pues estos contenidos pueden emplearse para crear la ilusión de que sus protagonistas dicen cosas que nunca dijeron, o participan en situaciones que sin embargo nunca existieron.

Lejos de resultar una tecnología anecdótica, relegada a los vídeos de entretenimiento, diversas autoridades nacionales, conscientes del riesgo que supone este nuevo escenario, han comenzado a tomar cartas en el asunto para controlar los efectos nocivos de este nuevo avance tecnológico.

Y es que, aunque la tecnología que sustenta los deepfakes cuenta con sólo dos años de vida, expertos consultados por este medio alertan que el perfeccionamiento de la técnica ha alcanzado tales límites que resulta imposible para la ciencia forense diferenciar un vídeo fake de uno original. Por ello es necesaria una actuación determinante y rápida, alertan, tanto desde la norma como desde las empresas. También confirman que los primeros ciberdelitos cometidos a través de esta tecnología están ya dando pie a procesos penales en nuestros tribunales, y que los ataques ya no solo afectan a personajes públicos, sino que se están dando también entre anónimos y contra las empresas.

¿Qué delitos puede implicar la difusión de una deepfake?

Ruth Sala Ordóñez, abogada penalista especialista en delitos informáticos y prueba electrónica de LegalConsultors, explica que el abanico de nuevos ciberdelitos que el uso abusivo de las deepfakes presenta es amplio. La experta afirma que estos casos están llegando a tribunales, siendo los más comunes por ahora las vulneraciones al honor y la propia imagen, especialmente en el caso de llamadas ‘pornovenganzas’.

“Suelen ser casos de exparejas. Los delincuentes no solo se dan de alta en páginas pornográficas con los datos de la persona a la que quieren dañar, sino que, además, incluyen ahora también video” apunta.

La legislación actual no regula el fenómeno específico de los deepfakes. El artículo 401 del Código Penal (LA LEY 3996/1995) prohíbe la suplantación de identidad con penas de seis meses a tres años. Sin embargo, amplia jurisprudencia del Tribunal Supremo exige que para que exista suplantación debe darse “intención de ejercer los derechos que le pertenecen al suplantado”.

¿Supone entonces la mera creación de cualquier deepfake un delito de robo de identidad? La penalista explica que no todos los casos, sino sólo aquellos que hayan sido creados con una intención nociva. “Hay que analizar la intención con la que se ha creado el video. En este sentido, se debe identificar cada una de las acciones para ver cuáles son ilícitas y cuáles pueden suponer una reclamación por daños y perjuicios” explica.

Así, en el caso de las ‘pornovenganzas’, la víctima puede iniciar acciones penales por ataque al honor, la propia imagen, la intimidad. Se descarta en cambio la vía de la vulneración de secretos del artículo 197.7 del Código Penal (LA LEY 3996/1995), porque un vídeo supuestamente íntimo, pero con una careta artificial de un tercero “afecta a su honor e imagen”, pero “no difunde, en puridad, ningún vídeo íntimo de la víctima”.

No obstante, aunque la causa penal se desestime, la indemnización por daños y perjuicios “queda siempre a salvo”, explica la penalista.

¿Cómo se puede atacar una empresa a través de deepfake?

Por su parte, Noemí Brito, Socia responsable del Área de Tecnología, Innovación y Economía Digital de Ceca Magán, destaca que las deepfakesno sólo están afectando a los derechos de individuos, sino también de las empresas, “diana habitual de estas prácticas”, asegura.

La lista de ataques vía deepfake contra compañías es amplia: desde la 'estafa del CEO’, que permite desviar grandes cantidades suplantando la identidad de un alto directivo a través de una videollamada; hasta ataques reputacionales, donde un vídeo falso puede situar a un alto directivo o representante de una gran empresa en una situación comprometida, con el objetivo de dañar la marca que representa.

Ante esta situación, las empresas deberán poner de su parte para blindarse ante posibles ciberataques. “No es una realidad que pueda frenar de forma definitiva la ley” asegura la abogada de Ceca Magán, por lo que subraya la importancia de que el esfuerzo legislativo se acompañe de otras medidas, donde las empresas tomen conciencia del riesgo, como "mecanismos de autorregulación, generación de códigos de buenas prácticas claros, prácticos y efectivos, y estrategias de colaboración público-privado para su detección y mitigación".

¿Cómo se detecta una deepfake?

En cuanto a materia forense y de prueba, Ruth Sala asegura que en la actualidad no existen herramientas propias de informática forense capaces de detectar si un archivo de vídeo ha sido alterado por deepfake o no.

En este escenario, varios gigantes tecnológicos se encuentran ya en la carrera para conseguir una tecnología que identifique si un vídeo ha sido alterado artificialmente o no. Pretenden explorar la combinación de técnicas de investigación forense tradicional y tecnología de Inteligencia Artificial. Una herramienta que podría ser muy útil para las empresas que basan su músculo productivo exclusivamente en el tratamiento de la información, como los periódicos o los grandes consultores.

Una de estas investigaciones que apuntan en este sentido es la dirigida por la Universidad de Berkeley, en colaboración de empresas y organizaciones como Google, Microsoft o DARPA (la Agencia de Proyectos de Investigación Avanzados de Defensa, Defense Advanced Research Projects Agency, del Departamento de Defensa de Estados Unidos), cuyo objetivo es paliar los efectos nocivos de las deepfakes con el objetivo de dañar la imagen de los líderes políticos para alterar corrientes de opinión.

Según sus primeras conclusiones (recogidas en el documento Protecting World Leaders Against Deep Fakes), han conseguido hallar una relación, única en cada persona, entre la expresión y los movimientos de cabeza cuando hablamos, a través del análisis por inteligencia artificial de gran cantidad de vídeos de personas reales.

Concluyen que cada persona tiene una manera característica de combinar su expresión con la articulación de sus músculos faciales y de la cabeza cuando hablan. Un rasgo que, sin embargo, las deepfakes aún no consiguen imitar, lo que puede ser una vía para combatir sus engaños en materia forense.

Identificar deepfakes también será determinante en materia procesal y probatoria. Así lo destaca José López Calvo, delegado de Protección de Datos y vocal de la asesoría jurídica del CSIC (Consejo Superior de Investigaciones Científicas). El jurista augura en este sentido que será dificil asegurar si un video es real o una mera recreación artificial como prueba audiovisual en juicio. "Cabe imaginar el enorme perjuicio que puede derivar de videos falsos de los que dimanen eventuales responsabilidades o perjuicios sobre las personas" destaca.

Los riesgos para la información veraz

El jurista del CSIC también pone el acento en la amenaza para el derecho a la información que esta nueva forma de fake news representa. Una sombra que compromete “a los pilares sociales básicos y la convivencia”, asegura, al alterar “la provisión de información correcta, esencial para tener criterio y adoptar decisiones”

Para este experto resulta esencial que los Estados afronten el problema rápido y de forma efectiva, ya que la estrategia actual puede que no sea suficiente. “Se está trasladando a las plataformas la responsabilidad para retirar contenidos lesivos, falsos o perjudiciales. Pero no es descartable que los poderes públicos tengan que plantearse a medio plazo la configuración de instrumentos adicionales, que les permitan ejercitar de manera directa tales competencias” explica.

¿Cómo se regulan las deepfakes en el mundo?

Y ante esta gran nueva amenaza, ¿qué proyectos normativos se han desarrollado? A pesar de ser una tecnología joven, algunos estados han desarrollado proyectos legislativos para paliar los efectos lesivos de esta tecnología.

Estados Unidos es uno de los países que han decidido regular la cuestión. Tras sonados escándalos que han afectado a personalidades de la talla de Donald Trump, Barack Obama, Nancy Pelosi o Mark Zuckerberg, la potencia quiere blindarse ante una posible ola de fake news que altere de forma irreversible la opinión pública, en especial en vísperas de elecciones.

California publicó en 2019 dos proyectos legislativos en este sentido, para paliar los efectos de los “materiales audiovisuales engañosos”. Su regulación se limita a dos ámbitos: las elecciones y la pornografía. Por ejemplo, la nueva ley californiana (en vigor en 2021) prohibirá que en los 60 días previos a elecciones se produzca o distribuya lo que define como “contenidos audiovisuales engañosos” (deceptive audio or visual media), esto es, “contenidos maliciosos capaces de crear sobre cualquier persona razonable una impresión ciertamente diferente a la que hubiese tenido de poder visualizar el contenido original” (cause a reasonable person to have a fundamentally different understanding or impression of the expressive content than if he or she had seen the unaltered content).

China es el país que más agresivamente regulará el fenómeno. Según informó a finales de noviembre pasado la Administración China del Ciberespacio (CAC, por su abreviatura en inglés), ha aprobado un "Reglamento sobre la gestión de los servicios de información de audio y video en red", que establece que a partir de 1 de enero de 2020, la producción y distribución de cualquier deepfake estará prohibida, a no ser que cuente con un sello oficial, que informe de forma clara que el espectador está presenciando un engaño.

La medida ha sido justificada por las autoridades chinas en vista del poder de las deepfakes para “alterar el orden social e infringir los derechos e intereses legítimos de los demás”, según informó en un comunicado la CAC.

¿Sigue la Unión Europea la tendencia regulatoria que se está marcando en el mundo? Sí, aunque no aún de forma específica para el fenómeno de las deepfakes. La Comisión Europea ha iniciado numerosos proyectos de investigación para paliar los efectos de las fakes news. A estos efectos, a finales de 2017 las autoridades comunitarias vieron necesarios crear un Grupo de Expertos sólo para investigar y paliar los efectos de las noticias falsas y la desinformación (High Level Expert Group on Fake News and Online Disinformation). Su objetivo es concienciar a la población del problema de la desinformación y estudiar el alcance de su amenaza para la democracia.

Sin embargo, por el momento no existe ninguna normativa o proyecto de ley en la Unión que prevea una regulación específica del fenómeno.

Por su parte, López Calvo destaca la relevancia que el asunto está adquiriendo también para organizaciones internacionales de ámbito regional. Como el Consejo de Europa, que estableció las fakes news como uno de los fenómenos a estudiar en materia de ciberdelincuencia para el 2020, en su conferencia Conference on cybercrime: evidence in cyberspace, fake news and election interference.

Algunos de los casos más sonados

Abril de 2018. Una de las primeras víctimas de los deepfakes contra políticos fue Barack Obama. El director estadounidense Jordan Peele utilizó su imagen para la promoción de su nueva película, creando un vídeo artificial donde el demócrata alertaba de los peligros de la Inteligencia Artificial en materia de noticias falsas y manipulación de vídeos: “Nos encontramos en una era en la que nuestros enemigos pueden hacer que cualquiera diga cualquier cosa en cualquier momento (…) Podrían hacerme decir cosas como ‘Killmonguer tenía razón’, ‘Ben Carson está hundido’, o simplemente, ‘Donald Trump es una absoluta y completa mierda’”.

Mayo de 2018. El partido socialista belga (Socialistische Partij-Anders) compartió en sus redes un vídeo falso de Donald Trump donde se jactaba de su retirada del Acuerdo de París de 2016 para luchar contra el cambio climático (“As you know I had the balls to withdraw from the Paris climate agreement. And so should you). La tecnología utilizada no fue en este caso tan sofisticada como en el caso de Obama y el engaño era evidente. Pero igualmente, el suceso alcanzó notable repercusión.

Mayo de 2019. Las aplicaciones para crear deepfakes mejoraron, especialmente aquellas accesibles al gran público. En este contexto, varios videos modificados de Nancy Pelosy, recién elegida Presidenta de la Cámara de los representantes de los Estados Unidos fueron distribuidos en la red. En ellos, la demócrata daba la sensación de encontrarse en estado de embriaguez mientras daba un discurso. El impacto del engaño fue notorio, y uno de ellos fue compartido por su adversario Donald Trump en Twitter. El equipo de Pelosy desmintió el bulo, pero el asunto era ya trending topic pocas horas después su publicación.

Junio de 2019. Las cuentas anónimas especializadas en la creación de deepfakes creíbles ya pueblan la red. Uno de los casos más sonados en estas fechas fue el de Mark Zuckerberg, creador de Facebook, quien apareció en un vídeo difundido en Instagram por dos artistas y una compañía de publicidad. En él, “admitía” controlar los datos robados de los usuarios a través de los contenidos que compartían en un inquietante discurso, cerrando que “cualquiera que controla la información controla el futuro”. El rótulo de una cadena de noticias acompañaba la intervención falsa para hacer creíble el engaño.

Scroll