I. Aspectos generales
1. La delincuencia informática
Aunque la Informática, muy resumidamente, la conformen servicios construidos a partir de datos digitalizados, algoritmos ejecutados en sistemas con capacidad de cómputo, e interfaces que permiten que sean utilizados por personas u otros servicios, el mundo del Derecho Penal ha solido focalizar su protección punitiva específica desde un punto de vista: 1) estático, en los datos (principalmente el dinero y sexo digitales, aunque sin descartar otros) castigando, sobre todo, acciones de apoderamiento o vigilancia sobre los mismos, y 2) dinámico, en su tratamiento y afectación a los sistemas y telecomunicaciones, sancionando la creación, modificación, destrucción, falsificación, cesión, manipulación o interceptación de los mismos.
Es por eso que, el instrumento internacional de naturaleza penal más importante del mundo hasta la fecha, el Convenio del Consejo de Europa sobre la Ciberdelincuencia (1) , hecho en Budapest el 23 de noviembre de 2001 invita a sus países firmantes a tipificar los delitos informáticos entre aquellos ataques que se dirigen contra los datos informáticos (que define como «cualquier representación de hechos, información o conceptos de una forma que permita el tratamiento informático, incluido un programa diseñado para que un sistema informático ejecute una función») y los que lo hacen contra los sistemas informáticos (que entiende conforma «todo dispositivo aislado o conjunto de dispositivos interconectados (2) o relacionados entre sí, siempre que uno o varios de ellos permitan el tratamiento automatizado de datos en ejecución de un programa») de manera que considera que en los primeros, delitos contra los datos, son infracciones penales a castigar:
- a. La interferencia: mediante actos que deliberada e ilegítimamente los dañen, borren, deterioren, alteren o supriman (Art. 4) y el fraude (Art. 8) cuando con esas acciones se ocasione un perjuicio patrimonial a otra persona y cuenten con intención fraudulenta o delictiva de obtener ilegítimamente un beneficio económico para uno mismo o para tercero, y
- b. La falsificación: para quien, de forma deliberada e ilegítima, introduzca, altere, borre, o suprima datos informáticos, de manera que dé lugar a datos no auténticos, con la intención de que sean tenidos en cuenta o utilizados a efectos legales como si se tratara de auténticos y con independencia de que estos sean o no directamente legibles e inteligibles (Art. 7).
Mientras que invita a tipificar como delitos contra los sistemas informáticos:
- a. El acceso ilícito: deliberado e ilegítimo a todo o parte del mismo (Art. 2)
- b. La interceptación ilícita: deliberada e ilegítima, por medios técnicos, de datos informáticos comunicados en transmisiones no públicas efectuadas a un sistema informático, desde un sistema informático o dentro del mismo, incluidas las emisiones electromagnéticas procedentes de un sistema informático que contenga dichos datos informáticos (Art. 3) y
- c. La interferencia: obstaculización grave, deliberada e ilegítima del funcionamiento de un sistema informático mediante la introducción, transmisión, provocación de daños, borrado, deterioro, alteración o supresión de datos informáticos (Art. 5) y el fraude (Art.8) si causan un perjuicio patrimonial a otra persona.
Por su parte, cierra el panorama de delitos que aconseja castigar con los que denomina «delitos relacionados», esto es, lo que podríamos describir como delitos cometidos por medio/a través de sistemas informáticos:
- a. La pornografía infantil (Art. 9)
- b. Los delitos relacionados con infracciones de la propiedad intelectual y derechos afines (Art. 10)
- c. El abuso de dispositivos/claves: para cometer los delitos descritos en los Arts. 2 a 5 (Art. 6) y
- d. Actos de naturaleza racista y xenófoba (Protocolo Adicional 1º, 28/01/2003, ratificado por España, BOE 30/01/15)
2. El concepto de sistemas de IA
Por su parte, la IA, que pudiéramos considerar resumidamente como un desarrollo avanzado de la Informática, donde las decisiones que el sistema ejecuta para resolver su propósito son lógicas, inferidas, tomadas por un algoritmo que aprende y cambia, que ha sido creado por un programador para que haga precisamente eso, aprender y tomar decisiones con el objetivo de resolver su propósito, desde un punto de vista legal (ver definición de «Principios de la OCDE sobre IA» y del Proyecto de Reglamento de la Unión Europea sobre IA), abarca «sistemas basados en máquinas —diseñados para funcionar con diversos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue y— que, para unos objetivos explícitos o implícitos, infieren, a partir de la entrada que reciben, cómo generar salidas tales como:
- — Predicciones
- — Contenidos
- — Recomendaciones o
- — Decisiones
Que pueden influir en entornos físicos o virtuales» (asistentes, software de análisis de imágenes, motores de búsqueda, reconocimiento de voz o facial, traductores automáticos, robots, drones, vehículos autónomos, I o T…)
Y que, además, añadimos nosotros, se expresan mayoritariamente mediante lo que se conoce como IA integrada (AI-Infused technology), esto es, mediante modelos de IA que se incorporan en máquinas físicas (dispositivos, artilugios) o servicios informáticos, muchos de los cuales están diseñados para funcionar con elementos de autonomía (grado en que el sistema de IA funciona sin participación humana).
3. Focos sobre la IA
De manera que, para analizar si la, llamémosla Informática tradicional, ha evolucionado y se ha transformado en algo significativamente diferente cuando hablamos de IA, a la que atribuir consecuencias jurídico penales propias —objeto de este artículo— o simplemente predicarle las mismas que aquella, tendremos que poner el foco en tres de sus aspectos más singulares:
1) Captadores / Perceptores / Sensores
La IA ha necesitado para desarrollarse correctamente ser alimentada/entrenada con profusión ingente de datos (Big Data), obtenidos de captadores/perceptores/sensores de información, de manera que, analizándolos racionalmente, ha sido capaz de detectar patrones, preferencias, pautas repetidas, hábitos, relaciones, detalles personales, etcétera, buscando relaciones entre ellos de ene dimensiones, que los datos aisladamente tratados no eran capaces de aportar por sí mismos, de modo que, podemos decir que su relación entre sí, o cruce de datos, sirve para añadir información novedosa, avanzada o más desarrollada, y para la inferencia de conocimiento.
Por ejemplo, el estudio informático de múltiples datos extraídos de la observación continuada de la posición geográfica (geolocalización tecnológica) de una persona concreta, sin hablar/interactuar con ella ni conocerla, puede llevarnos a detectar cuestiones tan privadas como sus posibles preferencias religiosas, sexuales, políticas, de salud y vida personal, tan sólo analizando dónde acude y su frecuencia, estudio que también puede servir para descubrir hábitos y rutas que le aporten información a quien, por ejemplo, le quiera secuestrar, investigar sus aficiones o descubrir su implicación o no en determinados delitos….
La accesibilidad a ingentes datos en texto, audio e imagen sobre una persona o conjunto de personas, y la masividad de la información que desprenden la reiteración de pautas/patrones de conducta que repiten, permite, a quien lo haga, la obtención de su perfilado, y lo que es más peligroso, la posibilidad de influir en su futura conducta actuando sobre tal información, más allá del control del propio individuo.
2) Procesadores
Los sistemas de procesado de datos hoy en día disfrutan de capacidades de cómputo muy superiores a las de los seres humanos, gracias a tecnologías como el Cloud Computing o el High Performance Computing, que pueden entrenar modelos de IA para encontrar relaciones entre los datos analizando la relación entre ellos dentro de billones de dimensiones.
Esto permite a los algoritmos de IA encontrar e inferir conocimiento que los seres humanos no somos capaces de encontrar en esos datos. (Ya hay algoritmos capaces de detectar cánceres de piel que superan los localizados por los propios dermatólogos humanos).
Estos algoritmos, una vez entrenados con todos esos datos, son capaces de inferir soluciones o ejecutar acciones para conseguir un determinado propósito que no ha sido programado por una persona.
Y eso incluso nos puede llevar a incidir jurídicamente sobre aspectos como la responsabilidad en caso de que generen daños o la propiedad intelectual de lo que derive de ese tratamiento autonomizado.
En conclusión, el desarrollo del sistema de IA no sigue en todo, la lógica codificada de la Informática tradicional.
3) Decisores
Porque, y esta es la singularidad más llamativa respecto de la Informática clásica, los sistemas de IA pueden llegar a adoptar automatizadamente decisiones, basadas en datos e inferidas por sus algoritmos, muy similares a las que se derivan del proceso de razonamiento y actuar humanos.
De manera que, al ser capaz de llevar a cabo/ejecutar/realizar una tarea física o digital de forma autónoma, automáticamente, manifiesta la capacidad de decidir/actuar sobre el entorno físico o digital.
Gracias al desarrollo de las técnicas de Big Data y al nacimiento del Cloud Computing, los algoritmos de IA empezaron a focalizarse en las destrezas cognitivas del ser humano, utilizándose el concepto de «Paridad Humana» para indicar que un modelo de IA es capaz de tener menos fallos que la media de los seres humanos en una determinada destreza cognitiva.
Esto llevó, en la década de 2010-2020, a que la IA superara la paridad humana, por ejemplo, en visión artificial, reconocimiento del habla, comprensión lectora, traducción, extracción de conclusiones, etcétera.
Si la máquina/artificio/artilugio, a veces a través de su interfaz interactuando con personas, es capaz de replicar de forma independiente imitando los procesos intelectuales típicos de la cognición humana llegando a decidir una acción en respuesta a su entorno percibido, nos encontramos ante algo muy semejante a ese atributo que siempre hemos predicado como exclusivo de la condición humana y, en términos filosóficos, poco nos faltará para extender a aquellas las mismas modalidades de culpabilidad penal, entre las que incluir el dolo, que hasta la fecha sólo hemos sido capaces de atribuir a las personas físicas/naturales.
II. Aspectos penales
1. La IA desde una perspectiva penal
Si entendiéramos que la IA no es más que una Informática sofisticada, la delincuencia vinculada a ella se estudiaría/clasificaría, según el modo/objeto/sujeto de ataque con entidad penal en función de entenderla como un simple:
- — Medio (modus operandi) de ejecución del ataque (a través de), reduciéndola a mera tecnología, simple instrumento del delito (que, como el cuchillo, en su neutralidad, tanto sirve para hacer el bien —untar mantequilla— como para hacer el mal —asestar puñaladas para acabar con la vida de alguien—), fijando la responsabilidad en función de la actitud de la persona que la use (el hombre por detrás (3) , autoría mediata), integrándola, según el ataque afecte a los diversos bienes jurídicos que protege el Derecho Penal.
- — Objeto de ataque (contra), donde lo protegido por la norma, la propia IA, es la información derivada del análisis de sus datos conforme a su pre-programación y entrenamiento, el producto de su tratamiento y por supuesto los dispositivos y artilugios que la integran.
- — De mayor interés sería el tratamiento penal de la IA como sujeto (¿por?), ya que, como vamos a ver a continuación, el hecho de que, a diferencia de la Informática clásica, sea capaz de tomar decisiones que afectan a su entorno, haciéndola ejecutiva nos obliga a considerarlo.
2. La IA como responsable penal
Porque de adoptar un concepto científico que acepte que ciertas IAs autónomas, independientemente de la interacción humana, puedan llegar a «cometer/decidir» acciones dañinas/de riesgo, cabría pensar en una responsabilidad penal propia de las mismas, a nada que las asociásemos en su causación a algún grado de reprochabilidad propia.
Nos constan ya en la actualidad modelos computacionales de aprendizaje automático (Machine Learning) que son capaces por sí mismos de aprender/detectar correlaciones entre variables y factores, y, actuar en consecuencia, pero, sobre todo, otros neuronales (Deep Learning) que incluso aprecian relaciones de causalidad entre la información que procesan por capas de análisis y las decisiones que ejecutan.
Con la llegada de la IA Generativa, donde tenemos modelos que son capaces de inferir decisiones en billones de parámetros, la toma de decisiones delegada a un sistema informático es una práctica habitual, hablándose de tecnología creada NoCode o LowCode, porque ha sido creada incluso con IA.
Los creadores de tecnología basada en IA Generativa pueden crear un sistema informático que toma decisiones simplemente con pedirle con lenguaje natural (Prompt) que resuelva un problema, que puede ser reprochable desde una óptica penal (4) (Por ejemplo, ordenándole escribir un artículo incitando al consumo de pornografía entre menores de edad).
De modo que, aunque propiamente no podamos hablar de que «entiendan y quieran» el crimen, y, en consecuencia, que sean los verdaderos autores de la infracción penal, dueños del fin delictivo, si alguna vez se demuestra que pueden realmente entenderlo/comprenderlo y desearlo porque alcanzan su autoconsciencia (5) , caso de que se llegue algún día a la llamada IA General, se le reconozca consciencia y sentimiento de empatía, no habría mucha dificultad en predicarles la imputabilidad y reprochabilidad que exige la culpabilidad penal, al menos dada la necesidad de hacerlas susceptibles al escarmiento (prevención especial) ante el resultado dañino que aceptan.
Probada la autonomía en la toma de la decisión exterior, y que muchas de las actuaciones maquinales tendrían implicaciones y consecuencias sobre la esfera humana (provecho, beneficio, perjuicio, daño, pérdida económica, impedimento de actuación…) nos preguntamos si es necesario para que respondan penalmente esas IAs que, además de operar de forma diferenciada/propia/singular, tengan personalidad en el sentido ontológico del término (personalidad maquinal/artificial/electrónica/robótica), dado que si hay autonomía decisional pero se carece de autoconsciencia y comprensión, no parece fácil poder hablar de que haya entidad (hasta el Art. 129 CP (LA LEY 3996/1995) al hablar de responsabilidad corporativa, incluida la que carece de personalidad jurídica, parece exigir su relación con los humanos que la integran (6) ).
Se caería en el riesgo de sancionar la mera fuerza computacional, la masividad del resultado, o su objetiva lesividad, que si bien es entendible en el campo de la responsabilidad civil —nadie debe soportar las consecuencias dañinas generadas por culpa ajena— no parece propio de quien además es sancionado con penas —excluimos aquí las consecuencias accesorias: las del Art. 127 y siguientes CP (LA LEY 3996/1995) y otras nuevas con que «castigar» a las IAs como la destrucción, reprogramación, reconversión, prohibición de uso, botón del pánico, destino legal….— porque, de permitirlo, estaríamos castigando la tecnología, de quien siempre debe predicarse su neutralidad instrumental.
Cabría por otra parte, la atribución ficticia de una especie de responsabilidad penal por obra de la Ley/ope legis (ficción legal) en casos aislados de las mismas, como ha ocurrido con la de las Personas Jurídicas (ex Art. 31 bis CP (LA LEY 3996/1995)), tal y como podría predicarse, por ejemplo en algunos supuestos de Propiedad intelectual, a modo de como el Art. 97 RDL 1/1996 (LA LEY 1722/1996) reconoce respecto de ciertas creaciones artísticas, literarias o científicas que no atribuye a seres humanos, sino a corporaciones/sociedades/empresas.
Si una entidad jurídica no humana puede crear, debe poder plagiar, en consecuencia. ¿Puede una IA idear/inventar una creación intelectual, de manera que si otra se la copia sin su permiso detrayéndole la posible compensación económica, merece una respuesta penal?
Demasiados dilemas que nos abocan, por el momento, a preferir, más que ese concepto científico de IA, otro de carácter más jurídico que alcance a analizar las IAs ligadas a la acción humana, de manera que, atendiendo al momento de la introducción de datos, creación, tratamiento, programación, utilización, supervisión, entrenamiento… hagamos responsable penal de sus consecuencias delictivas a quien lo usa, como auxilio, instrumento potencial, otorgándole el carácter de autor mediato a la persona humana «por detrás», garante obligado a evitar el aumento previsible del riesgo de lesión, responsable titular del dominio sobre el hecho acaecido, imputable objetivamente por conexión causal, como creador del riesgo, autor de la falta de diligencia, cocausante de la decisión en que la IA es sólo el instrumento ejecutor.
III. La IA en la parte general del Código Penal
Bajo esta segunda perspectiva, no cabe duda de que aparecerán nuevos sujetos en la parte activa y en la pasiva del delito. Surgirán así:
- — Nuevos autores/partícipes: que cometerán el delito mediante la creación, uso o incluso beneficiándose de la IA, en lo que hemos venido denominando una especie de culpa in programando (que excluye que se pueda decir que todavía nos hallamos en la fase de ideación —el pensamiento no delinque—), donde la aportación al delito consistirá en introducir a sabiendas información falsa/deliberadamente errónea (contenido sintético, mendaz), o datos ajenos reales (phishing), manipulando, entrenando, programando indebidamente o pidiendo a una IA generativa que haga cualquier acción que desemboque en un acto punitivo, que, sumados a una intención de lesionar un bien jurídico protegido, acaben propiciando que la IA misma lesione o ponga en riesgo algunos de los más preciados protegidos por la norma Penal, incluida la información, las telecomunicaciones y la libre determinación humana (7) .
- — Nuevos responsables: en especial, las plataformas tecnológicas (que deben afrontarla en función de su previsibilidad sobre el riesgo) y que deben acoplar su necesaria corresponsabilidad administrativa (Art. 10 Reglamento (UE) 2022/2065 (LA LEY 22694/2022), de Servicios Digitales), su «accountability» (proactividad y rendición de cuentas) también al campo de lo penal, mediante la genérica obligación de minoración de riesgos penales, adopción del compliance e incluso su posible responsabilidad penal propia (Art. 31 bis CP (LA LEY 3996/1995)) con multas para las empresas tecnológicas que pretendan beneficios a través no sólo de actuaciones intencionales, sino también de intolerables inhibiciones (conocidas, detectadas por canales de denuncias….) que superen la, hasta la fecha, inefectiva responsabilidad civil.
Ejemplo de lo que queremos resaltar lo constituye, el Artículo 25.1 Reglamento (UE) 2022/2065 (LA LEY 22694/2022) de Servicios Digitales, cuando respecto del diseño y la organización de los interfaces en línea, dice: «Los prestadores deplataformasen línea no diseñarán, organizarán ni gestionarán sus interfaces en línea de manera queengañen o manipulena los destinatarios del servicio o de manera quedistorsionen u obstaculicensustancialmente de otro modo la capacidad de los destinatarios de su servicio de tomar decisiones libres e informadas».
- — Nuevas víctimas: muchas de las cuales serán selectivas, elegidas (whaling), y devendrán multiplicadas por factores como la dificultad de explicar la toma de decisiones de una IA, ya que entrenada con ingentes cantidades de datos, es difícil, o prácticamente imposible, saber por qué toma una determinada decisión, lo que puede llevar a ser infiltrada con sesgos maliciosos, aptos para producir un perjuicio.
Si a ello se suma su capacidad de cambio y de afección a una ingente masa de personas sobre las que el delincuente por detrás no sentirá ningún tipo de empatía, dada su distancia y deslocalización, la tecnología podrá propiciar atentados contra colectivos (odio, defraudaciones), que, incluso afectarán a miembros futuros de los mismos —pues el delito puede generarlo alguien que ya no viva cuando su víctima lo sufra—).
Al margen de este sombrío panorama con capacidad de ensanchar la respuesta penal, la Parte general del Código Penal posiblemente se verá afectada en su tratamiento de la pluriofensividad, con singular atención a los complejos delictivos, y en especial al concurso de delitos, pues el artilugio de IA muchas veces generará inmisiones en privacidades informáticas de víctimas concretas (el llamado entorno digital) que será delito medio para la consecución de los auténticos objetivos perseguidos por el hombre de detrás.
Sin embargo, debe reflexionarse sobre una malentendida criminalización de la tecnología en sí, por el hecho de que se mal use por el delincuente.
Muchos artilugios con IA aportarán la mecanicidad y difusibilidad técnica que conseguirá una mayor incidencia y proyección frente a posibles víctimas, pero ello no debe llevarnos a propugnar la aparición de una especie de agravante genérica (tipo «aprovecharse de propósito el autor de tecnologías de alcance masivo») que comprometerían la neutralidad de estas, y con ella su desarrollo, cuanto a castigar más lo más dañino.
Somos más partidarios de agravantes objetivas (tipo algunas de las recogidas en el Art. 250 CP (LA LEY 3996/1995): «entidad del perjuicio; valor económico de lo atacado; afección a un elevado número de personas») que, de las contempladas en preceptos como el Art. 578.2 CP (LA LEY 3996/1995) («llevarlo a cabo mediante la difusión de servicios o contenidos accesibles al púbico a través de medios de comunicación, internet, o por medio de comunicaciones electrónicas o mediante el uso de tecnologías de la información») o el Art. 570 bis (LA LEY 3996/1995) 2 CP («disponer de medios tecnológicos de comunicación avanzados»), que criminalizan el medio y comprometen como decimos el desarrollo de simples tecnologías, tanto actuales, como de futuro.
IV. La IA En la parte especial del Código Penal
1. Tipos penales de riesgo/adelantamientos punitivos
En la línea observada en los últimos quince años, se prevé que la tendencia del legislador para absorber el impacto de la IA en el campo delictivo caminará más en la senda de la observación/creación de nuevos tipos penales de riesgo que en la de los de resultado, no ya sólo porque los adelantamientos punitivos (delitos desde el diseño) evitan resultados ulteriores más graves, sobre todo cuando la acción criminal comprende una potencialidad masiva, indiscriminada y genera daños/perjuicios cuasi inarreglables/irresarcibles, cuanto porque no hay otra manera de combatir fenómenos mixtos donde a la acción humana se suma la potencialidad lesiva multiplicadora del uso de las tecnologías y el Derecho Penal ha dejado de pedir perdón por aceptar su potencial de prevención general y no resumirse en ser la última ratio represiva que aparece sólo cuando el mal ya está hecho y no se puede evitar.
Redacciones como la formulada en el Art. 348 CP (LA LEY 3996/1995) nos sirven de ejemplo para la posible tipificación penal frente a ataques de dispositivos con IA: «los que en la fabricación, manipulación..., tenencia o comercialización de …cualesquiera … aparatos o artificios que puedan causar estragos, contravinieran las normas de seguridad establecidas, poniendo en concreto peligro la vida, la integridad física o la salud de las personas, o el medio ambiente, serán castigados con …») y ello porque el hombre detrás de la IA al pre actuar, diseñar procesos basados en IA, fijar sus comportamientos por medio de lenguaje natural (prompting), entrenar los modelos con datos sesgados, o ser capaz de predecir comportamientos lesivos para la víctima y ventajosos para él, ya está exteriorizando un dolo —eventual o directo— que le hace responsable penal del resultado dañino ejecutado por la IA.
2. Delitos concretos impregnados de IA
En lo que se refiere a concretas infracciones penales donde la irrupción de la IA y su adopción por el delincuente conllevará a su uso, prevemos que tendrán un mayor desarrollo en las de tipo:
- — Económico: donde proliferan artilugios con IA que interaccionan con personas, sin indicar verazmente quién las manipula por detrás (como ha ocurrido con ciertas plataformas de «inversión» que han devenido en presuntas defraudaciones de esquema Ponzi), de manera que la relación la entablen la máquina con la persona víctima sin identificar quien se beneficia de las operaciones delictivas que ejecuta para desligarse de las consecuencias negativas de sus efectos.
- — Social: donde ha sorprendido la difusión por redes sociales de desnudos digitales (manipulaciones y montajes hechos con IA Generativa, al estilo de los posibilitados por apps del tipo «desnuda gratis a cualquiera» o el «Ropafuera» (Cloth off, al parecer usado por menores de edad en Almendralejo), que alcanzaron los 50.000 usuarios en sus primeras dos semanas desde su aparición, y que con suponer un posible atentado a la dignidad (Art. 173 CP (LA LEY 3996/1995)), privacidad (Art. 197.2 CP (LA LEY 3996/1995)) y desarrollo sexual de sus víctimas, ha exteriorizado la familiaridad con manipulaciones mediante el uso de IA con la que cuentan principalmente jóvenes digitales ya en nuestros días.
- — Instrumental: mediante artificios potenciados por la IA que —objetivamente— deshabilitan controles/permisos de acceso a productos informáticos ajenos, o —subjetivamente— suplantan la personalidad, atributos, claves/factores de autenticación de las víctimas a las que atacan.
3. Nuevos delitos
Por ello, quizá haya que ir previendo la necesidad de incorporar a nuestros futuros textos penales, algunos nuevos delitos como podrían ser:
- — Crear/ofertar/comerciarsoftwaredelictivo (malware como por ejemplo los recientemente incorporados a la defraudación en los párrafos 2 y 3 del Art. 249 CP (LA LEY 3996/1995)).
- — Hackeos —de suplantación—, o ataques de aprendizaje adversarial —sistemas que engañan a otros sistemas de IA— (por ejemplo, el ruido en redes neuronales de reconocimiento facial) que equivocan lo atacado, modificando su resultado esperado.
- — Manipulación/Suplantación/Fake/Envenenamiento de datos con los que convertir datos fiables en datos manipulados mediante el uso de IA, para cambiar la percepción de realidades que afecten a diferentes bienes jurídicos protegidos por la norma, por ejemplo, ataques intencionados manipulando datos destinados a crear/compartir información falsa o engañosa —desinformación deliberada—, con la intención de influir en la percepción pública (contra la información; delito electoral…) o en la reputación personal (contra la dignidad, acoso, salud mental…).
- — Generación (entrenamiento) de contenidos ficticios que pasen por auténticos (vinculándolos a delitos de falsedad, por afectar la seguridad en los contenidos que puede ser base de otras infracciones).
- — Control del comportamiento social —por ejemplo en redes sociales…—, de veracidad...
4. Suplantación
Merece la pena detenernos en el breve análisis de algo tan criminógeno como la suplantación posibilitada por artilugios de IA.
Y nos referimos al genérico concepto de «poner en lugar de», dejando al margen las diferencias de matiz que haya entre esta figura y la usurpación, que añade más una idea de hacerlo con violencia.
Porque prolifera el uso malicioso deimagen/voz (realista/con apariencia de realidad) de persona para ejecutar alteraciones (reales), o invenciones (novedosas ficciones irreales realistas), siempre con ausencia del consentimiento (sexual, económico, emocional…) de su titular e incluso sin su conocimiento, intrusándose en su privacidad, afectando a su dignidad personal, dañando su reputación e incluso generando en su víctima un daño emocional importante, además del propósito que suponga la propia sustitución de lo real por lo simulado —acceder a una cuenta bancaria, hacerse pasar por alguien para contratar electrónicamente o alquilar una habitación de hotel a nombre de otro, votar por otro, hacer un examen en lugar de otro…—
La suplantación de la imagen mediante los avatares o humanos sintéticos, de políticos, famosos, muertos… —muy verosímiles— que articulan movimientos de labios y rostro mediante técnicas como el lip sync y el face swapping —intercambio— sobre filmaciones reales, simulando realistamente el movimiento de labios conforme al idioma impostado, con perfecta sincronización de voz, e intercambio de caras —usando técnicas de inteligencias artificiales generativas, de enfrentamiento—, o su uso en videoconferencias (mediante el face renaisement —que de una foto única permite una secuencia fílmica para videoconferencia; o con el hombre detrás, para reproducir sus movimientos y gestos en tiempo real con webcam virtual), o simplemente en formato voz (como el voice clonning de Elevenlab.io), constituyen elementos nucleares de una simulación que, por ejemplo, está debilitando el factor biométrico como mecanismo de confianza/ reconocimiento/doble autenticación.
Esta suplantación de datos digitalizables tan personales como la voz o la imagen se está utilizando, en el campo social, para difamar (faltar a la dignidad que se merece toda persona), acosar, chantajear (obtener forzadamente), dañar la reputación… y, capítulo aparte, en el económico, especialmente, para defraudar como muestran ejemplos tan replicados como la estafa del CEO, la del hijo con problemas en el aeropuerto, la de identidad con apertura de cuenta bancaria —que agregan reclamos con aparentes elementos identitarios (voz, imagen) falseados/creados con IA para suplantar personas que mueven a hacer los desplazamientos patrimoniales perseguidos—, y en modalidades tan sofisticadas como el SIM swapping, —emitido por algoritmos de IA controlada una vez se conocen datos «pescados» de quien se quiere suplantar para recibir del banco las claves necesarias para autenticar la cuenta a defraudar—
Y poco a poco está penetrando en casos aislados el propio Código Penal, como muestra el paradigmático caso del delito de acoso (stalking) del Art. 172 ter, cuando, entre las conductas que pueden alterar el normal desarrollo de la vida cotidiana de una víctima, contempla en su párrafo 1.3º el «uso indebido de datos personales» para adquirir productos, contratar servicios o conseguir que terceros les contacten, o, en su párrafo 5, al sancionar el uso inconsentido «de la imagen de una persona» para realizar anuncios o abrir «perfiles falsos» en redes sociales, páginas de contacto, o cualquier otro medio de difusión pública, ocasionándole a la víctima una situación de acoso, hostigamiento o humillación. Por no hablar de la tan manida suplantación de datos (informativa), a través de las conocidas como Deep fakes, contenidos sintéticos indistinguibles de los reales, que son la base sustancial de la acción sancionada en el Art. 284.1.2º CP (LA LEY 3996/1995), en el delito de alteración de precios, que sanciona a quien a través de Internet o las TICs, transmita «señales falsas o engañosas (fakes) sobre personas o empresas», ofreciendo, a sabiendas, «datos económicos total/parcial falsos» encaminados a alterar/preservar el precio de cotización de instrumentos financieros o de contratos sobre materias primas o índices de referencia, siempre que generen un beneficio grande.
Desinformaciones (dolosas/culposas), aparentes, convincentes, líquidas, que además, ponen en riesgo convicciones sociales, principios democráticos, procesos políticos…que reproducen sesgos dominantes al amparo de la manipulación masiva que le permite la IA a quien los expande y que pueden llevar a alterar nuestra concepción de ciertos delitos contra el orden público, el terrorismo, de traición, los delitos contra la Constitución y las instituciones estatales, el tratamiento de los discursos del odio…
5. Suplantación de identidad
Muy ligada a la anterior, igualmente, la IA está siendo usada para suplantar la identidad de una persona, especialmente en ataques/infracciones on line (8) , que, alejadas de sustituciones continuadas y permanentes —que más bien afectarían el estado civil de su víctima— se encaminan a hacerse pasar por otro —tomando prestada una identidad ajena—, a veces real, a veces ficticia o inventada, con duración meramente temporal o para una actuación puntual (uso de identidad real/ficticia ajena), que busca llevar a error sobre su autenticidad (donde el bien jurídico protegido, al tratarse de una conducta falsaria, sería la confianza) ante un tercero —la Administración, una empresa, una persona—, pero que genera perjuicios múltiples (al suplantado y a aquellos ante quienes se suplanta la identidad mendaz).
En muchas ocasiones incluso la suplantación identificativa bascula sobre atributos de la misma (falsedad de atributos) elementos que la conforman, como el nombre, nacimiento, género… alguno de los cuales incluso puede cambiar, u otros más sociales: carnet de conducir, titulaciones, cuentas bancarias, papeles sanitarios de Seguridad Social…, y que, para poder tenerse en cuenta como elemento de un delito deben tener trascendencia (identitaria, económica…), producir algún perjuicio (como hemos visto ocurre en el ejemplo del Art. 172 ter (LA LEY 3996/1995) 1.3º CP, o en el Art. 197.2 CP (LA LEY 3996/1995) cuando la «alteración» del dato persiga fines de acceso a la privacidad ajena) o al menos poseer capacidad de generar un error importante en terceros.
La usurpación/simulación mediante artilugios de IA de la identidad conlleva la atribución de algo ajeno, un arrogarse (digitalmente) atributos de otro, usar indebidamente los derechos de otro, cometiendo fraude respecto de esa identidad ajena, de manera que se lleve a cabo (digitalmente) una acción sustitutoria como si correspondiera a otro, es decir, que incida en lo que sólo se le permite hacer a otro (acceder a su privacidad, a su activo económico…), atacando la confianza de terceros por su gran apariencia de realidad.
Si lo que se pretende proteger, al castigar la suplantación de identidad, es precisamente esa confianza, es indiferente que la sustitución sea de persona real o no, mientras tenga aptitud de mover a terceros a posibilitar prestaciones que no se consentirían de conocerse la sustitución operada; pero si lo que se ampara es la mismidad identitaria, debe existir el usurpado, esté vivo o muerto, se suplante su identidad oficial o un mote, alias, seudónimo, nickname…
V. Conclusión
En conclusión, la relación de las tecnologías vinculadas a la IA y el Derecho Penal está ya en la calle, y como siempre ocurre ante innovaciones disruptivas, mientras algunos juristas, como no puede ser de otro modo, se esfuerzan en acomodarlas al Derecho ya existente —es lo que ha ocurrido con el caso de los desnudos digitales en Almendralejo—, nosotros hemos querido dejar por escrito algunas reflexiones sobre posibles pautas con las que iniciar el imparable camino hacia su deseable regulación, tanto en general, analizando una posible responsabilidad de los artilugios/dispositivos con IA, como en aspectos más concretos a residenciar en las Partes general y especial del Código Penal, apelando, eso sí, desde ejemplos ya existentes, a un posibilismo punitivo basado fundamentalmente en la teoría del riesgo y la sanción desde el diseño mediante muy necesarios adelantamientos punitivos.