Cargando. Por favor, espere

Portada

I. Inteligencia Artificial: hacia una utilidad asistencial para el Juez

Una vez se han sobrepasado las expectativas sobredimensionadas que recientemente ha generado —valga la expresión— la Inteligencia Artificial (en adelante, IA), al iniciar la curva descendente hacia la depresión de su asentamiento definitivo conforme al esquema del conocido como ciclo de Hype (2) de Gartner, y aprobado el primer gran instrumento normativo de la Unión Europea (Reglamento 2.024/1689, de 13 de junio en materia de IA, en adelante RIA) que ha pretendido instaurar una exhaustiva regulación de los límites legales a los riesgos inicialmente percibidos, es hora de analizar problemas jurídicos que han quedado al margen de ese tan criticable «enfoque basado en el riesgo» en que se ha fundado/basado y que la comunidad jurídica, sobre todo la jurisdiccional, tanto necesita para complementarlo en su labor en el día a día de los Tribunales.

La IA es una constelación de tecnologías tal, un desarrollo de software tan sofisticado, que es muy difícil someterla a un rápido y básico concepto global, más allá de la distinción respecto de lo que necesita aporte humano y lo de genuina creación maquinal —¿lo hay?—, razón por la que el concepto legal recogido en el art. 3.1 RIA, al definir los sistemas de IA, acaba optando por acoger/resaltar, más que un indiscutible concepto universal, las principales características que lo singularizan.

Indica que los sistemas de IA son aquellos «basados en una máquina que están diseñados para funcionar con distintos niveles de autonomía y que pueden mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infieren de la información de entrada que reciben la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales».

Centra la norma su conceptuación, en consecuencia, sobre características como: su basamento en máquinas, sus niveles de autonomía, su capacidad de adaptación mediante el entrenamiento, la funcionalidad algorítmica de concebirse para resolver objetivos —que pueden pretender incluso la generalidad, en el caso de la IA generativa— o su función de inferir (3) y proporcionar resultados concretos tan influyentes en el mundo analógico/virtual como lo son: las predicciones, los contenidos, las recomendaciones o incluso las decisiones.

A nosotros nos interesa especialmente esta última capacidad.

A nuestro modo de ver la IA supera, añade a las capacidades de la Informática de la que dimana, en que, autónomamente, aunque a partir de reglas predefinidas por humanos —sustrato en el que fundar la normativa sobre quién responde por los daños derivados de ella—, genera/infiere resultados de salida que «actúan», inciden y afectan, pudiendo modificarlo, así en el mundo físico/analógico —máquinas robotizadas/automatizadas— como en el virtual —ecosistemas de software, bases de datos..— , o en ambos, generando resultados que se pretenden prácticos —resolución de problemas— que devienen de tratamientos/procesos computacionales automatizados y entrenados de mucha información.

La Informática nos revolucionó en dos campos: 1) la obtención y tratamiento de la información, a través de los datos, y 2) la simplificación, inmediación y facilitación de las telecomunicaciones, esto es, en materia de datos y sistemas.

De ella derivaron fenómenos que todavía no han alcanzado su cúspide en nuestra transformación, como la digitalización, la virtualización, la denominada transformación digital, que, junto con la facilidad añadida por el tratamiento automatizado y la transmisión electrónica que posibilita, han globalizado aspectos tan transversales como: nuestra Economía/Industria —y sus bienes, servicios, medios de pago, ahorro, inversión, transmisión…—, Derecho, Seguridad, Ciencia, Salud, Educación, Cultura, relaciones humanas, ejercicio profesional… hasta el punto que, una vez conseguido, el ser humano ha puesto a las máquinas —ahora a través de la IA— a programar, resolver, adaptar, entrenar, modificar y conseguir actuaciones físicas/virtuales que le ejecuten tareas tan complejas —resolver problemas— que consideramos conceptualmente como «inteligentes», aunque la IA que lo realiza no lo comprenda (4) .

Unas son de propósito específico y muy determinado, y otras de propósito general.

Las primeras, no todas alcanzan el mismo grado de automatización, como clasificaba en su día el proyecto de Reglamento de la Unión Europea en su Anexo —en función de sus sistemas y técnicas—, abarcan desde:

  • 1) estrategias de aprendizaje: automático; supervisado; por refuerzo; profundo…,
  • 2) de lógica y conocimiento: representación del conocimiento; programación lógica inductiva; bases de conocimiento; motores de inferencia y deducción; sistemas expertos; sistemas de razonamiento simbólico...; y
  • 3) estrategias estadísticas: estimación bayesiana; métodos de búsqueda y optimización.

Pretenden resolver tareas complejas específicas (v. gr: el reconocimiento facial).

Frente a ellas, la IA generativa, a través de modelos fundacionales, a su vez de uso general, pretende resolver cuestiones transversales, genéricas, menos concretas, más multimodales, de manera que sirvan para acometer con un único modelo gran variedad de tareas, donde, gran revolución —que yo comparo con el salto que la humanidad dio cuando los ciudadanos no expertos empezamos a usar los ordenadores personales—, cotidianizando entonces el uso de la Informática como ahora empezamos con el sistema GPT a hacerlo en el de la IA.

Los ciudadanos usuarios no expertos, igual que en general siempre hemos hecho con cualquier otra tecnología, no sabemos programar, no entendemos cómo se conciben y operan internamente determinadas máquinas, pero las usamos como instrumentos en favor de nuestras necesidades y con ellos resolvemos problemas.

Conducimos vehículos a motor cuyo funcionamiento técnico interno ignoramos en detalle y no sabemos ni reparar, nos dejamos llevar por cintas transportadoras o ascensores/elevadores e incluso cruzamos océanos en aviones que nos conducen mediante piloto automático.

No pasa nada, siempre ha sido así.

La IA tampoco comprende lo que analiza, ni lo entiende ni razona, lo que nos importa es que el resultado que nos proporciona nos sirve, es útil: detecta cánceres, identifica a personas mediante la captación y análisis de su imagen….

La máquina, la tecnología es un instrumento al servicio humano.

Por eso el usuario no experto busca las aplicaciones —concretas o genéricas— de los sistemas de IA a los que acude, los casos de uso, las herramientas que le proporcionan, aunque ignore cómo trabajan.

Lo mismo hacemos los juristas, los aplicadores/intérpretes del Derecho, solo que a esa visión utilitarista le añadimos también la exigencia —ética— de que se nos garantice que no generan daños, desigualdades, minoraciones en los derechos humanos conseguidos hasta la fecha.

Un instrumento —en sí, de una tecnología, que es inicialmente neutral, pongamos un cuchillo— puede ser usado para bien —untar mantequilla— o para mal —asesinar a una persona—.

Cuál y cómo sea ese uso humano lícito o ilícito, lo marca, lo determina el propio ser humano.

El inventor descubre los límites técnicos de la Ciencia, su alcance y posibilidades. El Jurista los de la ética, modulando no lo que no puede usarse, sino lo que no debe, porque afecta negativamente a características fundamentales/importantes que la centralidad humana clasifica como preferentes, irrenunciables —sus derechos fundamentales, su integridad y salud…—.

El Derecho, que no es sino una muy falible y mejorable —por modificable— creación humana.

Define su «mismidad» en una determinada época y contexto histórico, y el nuestro ha devenido altamente influido por el desarrollo tecnológico por el que atravesamos.

Pero en él, el pragmatismo a que aboca la centralidad humana, debe definir los límites que se permiten a ese instrumento que es la tecnología, porque el antropocentrismo descarta que cualquier aplicación tecnológica «valga».

El Derecho impone límites éticos al resto de las creaciones humanas, también a la tecnología, explicitando, a través de la utilidad hasta dónde puede tolerar sus hallazgos, conforme a la idea de que no todo lo posible —científicamente— es —humanamente— tolerable/admisible.

Las posibilidades que abre la Inteligencia Artificial han añadido a los legisladores/reguladores una dimensión/reto hasta ahora desconocido

Sin embargo, las posibilidades que abre la Inteligencia Artificial —que no deja de ser otro instrumento— de generar por sí misma —a partir de instrucciones humanas— consecuencias físicas, decisiones, actuaciones externas, incluso en el mundo analógico, y el hecho de que el orbe se haya globalizado, han añadido a los legisladores/reguladores una dimensión/reto hasta ahora desconocido en su faceta de limitar el uso de los inventos humanos e incluso de los derivados de las propias máquinas.

Y es que, de un lado, aparecen aplicaciones técnicas generadas en exclusiva por la máquina —o al menos no siempre previsibles por el ser humano iniciador—, y, por otro, que la globalización hace que lo prohibido en una esquina del planeta pueda usarse en otra donde no lo esté.

Más genérico, este segundo problema, nos lleva a ser algo críticos con el fundamento con el que se ha regulado el RIA —y tantos otros instrumentos legales recientes— en la Unión Europea, el denominado «enfoque basado en el riesgo» de esta profusa década normativa digital europea, no tanto porque que su art. 1 restrinja su ámbito geográfico de aplicación y el art. 2.1 el de sus sujetos obligados, sino porque al versar sobre un fenómeno de despliegue universal imparable como es la IA, no ha hecho sino desplazar a territorios fronterizos periféricos y externos a su geografía, el asentamiento de quienes no pretenden cumplir la norma, no obstante penetrar con opacidad en el terreno protegido y generar en él y en sus ciudadanos obligados consecuencias fatídicas muy adversas.

Y la instauración de sandboxes (art. 57 y ss. RIA: campos de pruebas a modo de limbos donde analizar los resultados de lo investigado sin sufrir consecuencias jurídicas adversas) para testar lo ignorado hasta corregir su potencial lesividad antes de tolerar su uso, no hace sino añadir ingenuidad al realismo de las transgresiones que la informalidad económica de la globalización mundial nunca ha impedido y siempre ha potenciado.

La Historia de la aplicación de las normas —instrumentos generales— ante los Tribunales —que suelen interpretarlas en casos concretos con circunstancias muchas veces no tenidas en cuenta por el legislador—, convierten a los Órganos Judiciales en privilegiados observadores de los excesos en la regulación, como el caso de la IA y en general muchas otras manifestaciones del fenómeno digital, de los inventos hiper regulados.

Mientras el Parlamento Europeo y el Consejo fijaban para su territorio de aplicación límites a la IA basados en enfoques del riesgo, incidiendo sobre todo respecto de los que califica como: «inaceptable» —mediante lo que denomina prácticas de IA prohibidas, reguladas en su art. 5—; «alto» —normado en su art. 6 y siguientes, 71, Anexo III—; o «sistémico» —arts. 51, 55…—, en los Juzgados y Tribunales de su espacio geográfico, las primeras sentencias que enfrentaban principalmente las consecuencias lesivas o dañinas de su imparable uso/aplicación universal no abordaban este enfoque, sino, por haber sido seguramente transgredido, cuestiones clásicas como el papel de la IA en la asistencia al Juez (5) , la necesidad o proporcionalidad del procesamiento masivo de datos personales inconsentidos (6) , la exigibilidad o no del conocimiento del código fuente para potenciar la explicabilidad de las decisiones maquinales (7) , la protección del secreto algorítmico, la supervisión humana de las decisiones exclusivamente automatizadas (8) , el sesgo discriminatorio en algunas fases de su actuación…

En definitiva, y sin que esa ingenuidad y anticipación del legislador europeo se vean como un despropósito negativo, aunque hubo mucho de sometimiento a modas y de cesión ante el modelo de negocio a que sus supervisiones lo someten —Compliance, auditorías por diseño, evaluaciones de impacto…—, lo cierto es que, como siempre ha ocurrido con los desarrollos humanos, lo importante en los instrumentales, y la IA insistimos que lo es, al margen de ese control sobre su diseño e implantación —que a su vez está mutando/desarrollando la concepción misma del Derecho como aplicación humana—, debe ser centrarnos por el momento en los contornos —éticos— e hiperrealistas de su utilidad.

Sabemos que la IA no comprende, no piensa ni razona, no siente ni padece, imita, no crea, aplica métodos de análisis y tratamiento de ingentes datos para un propósito, no posee conciencia, no entiende lo que concluye o infiere, lo que decimos que genera o decide, …pero tampoco lo hace el avión o el coche que nos desplaza, ni el cuchillo que corta, ni la electricidad que permite a ciertos dispositivos que oigamos música almacenada o en directo…

Se trata de desarrollos, instrumentos que nos son útiles, y el papel principal del Derecho debe consistir en focalizar cómo será ético su uso.

Ciertas aplicaciones prácticas de ese mecanismo de resolución de controversias que es el Derecho, como la figura de la responsabilidad, en consecuencia, no pueden predicarse sobre las novedades prácticas que nos permite la utilización de sistemas de IA por mucho que tratemos de antropomorfizarlas.

La responsabilidad basada en que se ha causado un daño por aplicar un sistema que genera riesgos es una manera de dar respuesta aparentemente al más débil en la cadena vital, pero a su vez, mientras que enriquece a quienes los indican y manifiestan, desincentivan desarrollos no dañinos de emprendimiento e inciden negativamente en una generación ficticia de costes económicos que no siempre el diseño ético previene ni evita.

Por eso nuestro enfoque en este artículo doctrinal se quiere centrar más en el análisis de ciertas utilidades —sopesando ventajas e inconvenientes— de aplicaciones de IA que han venido para quedarse pero que deben también aplicarse al Derecho, por supuesto respetando las conquistas éticas de nuestra Historia, de manera que no pongamos más plomo en sus alas —liberales/individualistas— del necesario.

II. La IA asistencial como prueba pericial

Múltiples son los desarrollos/herramientas que los sistemas de IA pueden aportar también a la aplicación del Derecho como medio de resolución de controversias.

En concreto, la Justicia, y en especial la penal también se puede apoyar en ella.

Su principal aplicador/decisor, el Juez, aunque también sus protagonistas auxiliares, cada día más, como no podía ser de otra forma, y cada cual, según su propia capacidad de absorberla, pueden ir poco a poco usando herramientas de IA cuya confección han realizado expertos en su técnica, pese a que no comprendan su gestación.

La capacidad de respuesta del Juez en el análisis de la utilidad de estas herramientas de IA dependerá, bien de sus propios conocimientos técnicos, bien, si carece de ellos o necesita complementarlos, de los que le aporten las partes procesales a través de expertos/peritos siempre que lo considere necesario para resolver el problema jurídico que le presenten.

Y de las muchas utilidades que las diferentes herramientas de IA pueden aportar al Juez: —las que automatizan tareas y procesos (RPA (9) , gestión documental, gestión de procesos…) (10) ,

  • las predictivas,
  • las generativas,
  • las decisionales automatizadas —entre ellas, el denominado Juez robot—, o
  • las meramente asistenciales, —las que ayudan a tomar decisiones—,

queremos focalizar el resto del artículo en estas últimas, porque, en definitiva, la prueba pericial no es sino una asistencia al Juez, que necesita que le trasladen conocimientos científicos, técnicos, artísticos… con trascendencia en el proceso y que ahora le van a ser proporcionados por las propias herramientas —asistenciales— de IA que a ese fin se están creando e implantando en el mercado.

Queremos reflexionar sobre la capacidad de la IA asistencial de llevar a cabo las tareas propias de la que clásicamente se ha denominado prueba pericial.

Dice el art. 456 de la Ley de Enjuiciamiento Criminal (LA LEY 1/1882) que «el Juez acordará el informe pericial cuando, para conocer o apreciar algún hecho o circunstancia importante en el sumario, fuesen necesarios o convenientes conocimientos científicos o artísticos».

Más modernamente en el tiempo, el art. 335.1 de la Ley de Enjuiciamiento Civil (LA LEY 58/2000) lo formula en términos parecidos al decir que «cuando sean necesarios conocimientos científicos, artísticos, técnicos o prácticos para valorar hechos o circunstancias relevantes en el asunto o adquirir certeza sobre ellos, las partes podrán aportar al proceso el dictamen de peritos que posean los conocimientos correspondientes o solicitar, en los casos previstos en esta ley, que se emita dictamen por perito designado por el Tribunal».

En un mundo analógico —y ambos preceptos fueron redactados en diferentes momentos en que este predominaba— la regulación y la fijación de las garantías para con el justiciable en el proceso, se basaban en el análisis de cualidades humanas —neutralidad, capacitación…— que no alcanzaron a prever que, en el mundo más digitalizado que se nos avecinaba, esa tarea la podrían desplegar con mayor eficacia y menores sesgos, seguramente, algunas herramientas de IA.

En la actualidad del despliegue digital en que nos hallamos, donde la «paridad humana» ha sido superada con creces por la IA en muchas de nuestras capacidades cognitivas no emocionales, conviene analizar las ventajas e inconvenientes que la pericial de IA puede aportar al proceso penal como hasta la fecha ha sido concebido y la manera de usarlo/introducirlo en él como prueba.

La IA, en primer lugar, y a través de los captadores, sensores, obtenedores de datos y metadatos no sólo de Internet sino también de dispositivos aislados y funcionales conectados a la red en el denominado Internet de las cosas (IoT), rastrilla, capta y analiza tal profusión de datos, de información, que el ser humano jamás va a ser capaz de tener en cuenta, de modo que ya desde la fuente de lo que se va a analizar y de los conocimientos que se van a tener en cuenta y observar, la IA, en condiciones normales, va a contemplar muchísimos más que el ser humano.

Es importante no obstante ser crítico con la calidad de esa información de datos de entrada sujetos al análisis, dado que como resume el dicho «garbage in, garbage out» (si lo que se introduce es basura, lo que se concluye será basura), en función de la pertinencia de lo tratado, será más o menos acertada la conclusión que se deduzca, debiendo, por ello, insistirse en que la fuente informativa sea lo más centrada/focalizada posible en lo que realmente ayude —y no confunda— a deducir.

No en vano la conceptuación civil de la prueba pericial también persigue hacer adquirir «certeza» sobre las «circunstancias relevantes en el asunto» que inquieten al Juez decisor, y en ese sentido, cada vez ganan mayor protagonismo las herramientas, programas y sistemas de IA —los denominados agentes de IA, o IA agent— que buscan/pretenden cumplir objetivos específicos.

No va a ser lo mismo que el algoritmo analice todos los posibles síntomas adversos que la salud humana puede padecer, que analizar sólo los que se sufren en un caso concreto, a la hora de determinar qué enfermedad se puede tener y cómo poder curarla.

Por eso, en lo que a ese momento procesal judicial se refiere —de análisis de la captación de información (sensores, captadores) y tipo de esta— ya, comienza a ser importante el papel de aportación de contradicción y crítica que la contraparte puede esgrimir ante el Juez fallador, para hacerle relativizar o mejorar la interpretación del resultado que con unas u otras pueda obtenerse, sobre todo en un campo como el Derecho donde no se debe olvidar nunca su tendencia a la resolución de conflictos humanos.

En segundo lugar, la IA procesa (procesadores) y trata, conforme a unas instrucciones —prompts— con una velocidad/rapidez de computación y relación tal que la inteligencia humana no es capaz nunca de mejorarlas, lo que aporta ventajas en aquellos asuntos —v. gr: emergencias— en que el tiempo para conocer y reaccionar se convierte en lo más valiosos por su carácter verdaderamente crítico.

La capacidad de relacionar datos (actuadores) para mejorar la calidad de las conclusiones, es también infinitamente mayor y más rápida en la IA que en la inteligencia humana

En tercer lugar, la capacidad de relacionar datos (actuadores) para mejorar la calidad de las conclusiones, es también infinitamente mayor y más rápida en la IA que en la inteligencia humana que sólo aprende mediante la consciencia, de modo que mientras la IA entrena las veinticuatro horas del día los siete días de la semana y no decae su grado de atención y concentración en el aprendizaje (adaptadores), la mente humana necesita descanso, consciencia y atención en lo que trata de modo que pierde mucha concentración o capacidad computacional debido a sus limitaciones fisiológicas.

Un ejemplo de aplicación de IA predictiva, donde también se superó la paridad humana hace mucho tiempo, nos puede ilustrar:

Mientras el Juez de Instrucción debe tomar la decisión de asegurar la situación personal de un investigado/sospechoso acordando su prisión o libertad provisional en espera de juicio tan sólo basándose en la escasa información que le aporte la causa penal —muchas veces atestados de no más de cuatro páginas de información sobre el sujeto y en circunstancias muy sincrónicas, y un interrogatorio que puede ser muy desinformador—, las herramientas de IA predictivas sobre el riesgo de fuga en relación con las circunstancias de un encausado concreto podrían, en mucho menos tiempo, hacer la predicción del riesgo de que eluda o no la Justicia, ayudando al Juez a tomar la misma o distinta decisión, de una forma mucho más informada ante ventajas como que —además de esa información ad casum concreta— podría acceder en mucho menos también y además de los circunstanciados, a información externa al atestado, más diacrónica, de bases de datos de antecedentes, arraigo vital, profesional, de propiedades…, a poder ser extraídas de fuentes oficiales (11) , que refuercen las variables que influyen y las que no, que gradúen un mejor sopesamiento/ponderación (balancing) de las que inciden más y las que no, que afinen los porcentajes de probabilidad y los apoyen con mediciones matemáticas que objetiven más la deducción/predicción/decisión final.

Además, a la ventaja de que la IA recopile/analice mayor – y más novedosas fuentes/volúmenes de datos con mejor precisión/rapidez, automatice tareas, identifique patrones, simule escenarios que hagan, según sean entrenadas, más precisas sus conclusiones, se le suma la de que puede hacerlo de una manera más neutral/objetiva ya que minimiza la influencia de los sesgos subjetivos que padecemos siempre las personas.

Y en lo que hace a la actividad digital —piénsese en el ejemplo de una pericial sobre desprestigio reputacional/difamación de alguien en medios de comunicación/información—, como la IA rastrea la procedencia, identifica patrones, veracidad, identidad, etc.… desde su análisis de metadatos, ruta de acceso, historial de versiones/modificaciones utilizadas, simula escenarios y detecta bots amplificadores, compara estilos/comportamientos, detecta manipulaciones, etc., es capaz de hacer análisis de información mucho más precisos y acertados y de aportar al Juez de la decisión perspectivas novedosas alternativas o complementarias que pueden enriquecer enormemente su decisión.

No es óbice sino ventaja también que la prueba pericial —aunque testada o preparada por las partes— pueda ejecutarse con total inmediación —on line y a presencia de la contraparte que pueda contradecir— delante y con la presencia física e incluso con la intervención del propio Juez afinando los promts y dando sus propias instrucciones, de manera que, a diferencia de la pericial de ADN —que hacen las máquinas, pero que sólo puede explicar quien las utilizó para ello—, la explicación de dónde surgen las deducciones, o el análisis del peso real o incidencia que deban tener, se pueda contradecir por quienes la están llevando a cabo junto con el propio Juez.

De esta manera se potencia la explicabilidad de la prueba pericial y se conjuran desventajas clásicas achacadas a la IA como su falta de transparencia —con los aspectos referidos a las black boxes/cajas negras y el afloramiento del código fuente, o su posible obsolescencia—, la aplicación a sus deducciones de consideraciones propias de las habilidades humanas —proporcionalidad, conmiseración…— que la IA no puede tener; reducción de sesgos propios; conocimiento del método empleado, riesgo de ser hackeado, manipulado, alterado, adulterado, mal entrenado; afecciones a derechos fundamentales como privacidad, protección dato y debido proceso….

III. La IA como objeto de prueba

La utilización de instrumentos/herramientas de IA para ayudar al Juez a tener en consideración conocimientos científicos, artísticos, técnicos o prácticos y con ellos valorar mejor hechos o circunstancias relevantes en el asunto o adquirir certeza sobre ellos, está sometida al elenco del denominado test de admisibilidad, licitud, integridad —mejor que exactitud o verdad— y autenticidad de la prueba.

Conforme a él, el material probatorio que se pretenda utilizar debe haber sido admitido por el Juez –«lo que no está en los Autos no está en el mundo»—, y para ello ser pertinente, útil y legal.

Haber sido adquirido de manera lícita, esto es, obtenido sin que se hayan afectado derechos fundamentales, conforme a la disposición contenida en el art. 11.1 LOPJ (LA LEY 1694/1985) que prohíbe e impide valorar pruebas que directa o indirectamente lo hayan hecho, dado que, como hemos venido observando, ese es el listón mínimo de la ética de los Estados de Derecho al descartar valorar y admitir las que se hayan obtenido traspasando esa barrera.

Ser analizado de manera íntegra, lo que obliga a apreciar que no le falten o que no se le hayan añadido aspectos que no presentaba al aprehenderla en la escena del crimen.

E, importante problema práctico, que igualmente puede condicionar el adecuado empleo de herramientas asistenciales de IA para aportarle al Juez los conocimientos que precisa, que lo analizado sea auténtico, pues si se examinan elementos espurios o manipulados, esto es, inauténticos, las consecuencias que se extraigan de ellos pueden estar muy alejadas de la realidad y fundar la decisión en premisas inciertas.

Se trata en este último caso, más que de un problema de licitud, pues lo analizado lo puede ser, de uno de certeza o fiabilidad.

El análisis que se basa en productos manipulados de IA puede perfectamente conllevar a decisiones inveraces, a conclusiones alejadas de la realidad, de manera que, como viene siendo habitual en el mundo digital, la discusión sobre su autenticidad o falsedad se va a configurar como necesaria en al menos aquellos supuestos en que alguna de las partes —presentando un principio de prueba de ello— o el propio Juez dude de la veracidad o no de la IA con que se esté trabajando.

A lo anterior se añade la dificultad conceptual de, a diferencia de la prueba informática, que al ser generada por el ser humano manejando un ordenador hace que pueda ser explicada por un ser humano, la prueba de IA, al serlo automatizada y entrenadamente por la máquina, exige una explicación más genérica de salida —conocer su código fuente o su árbol de decisión: entradas tenidas en cuenta, ponderación de cada factor y conocimiento de los no atendidos y la justificación que fundamenta— y si hay un principio racional de duda, incluso, la prueba, dentro de la prueba, de su autenticidad.

Ciertamente parte de la prueba generada con IA puede —intencionalmente o no— ser no auténtica —fake (12) — y como decimos, tanto en las herramientas IA decisionales como en las asistenciales y las predictivas, conllevar a conclusiones que equivoquen la resolución judicial final que se funde en parte en ellas.

Por eso, habrá ocasiones en que la propia IA en sí misma será objeto de prueba para conocer lo acertado o desacertado de su fundabilidad.

El usuario medio de herramientas IA puede, a través de redes GAN —que enfrentan, hacen competir dos redes neuronales, una discriminatoria (que detecta) y otra generadora (que engaña) de manera que logran resultados muy verosímiles, pero inauténticos, de algo, v. gr: aparentar hacer hablar a alguien que está ya muerto sobre hechos posteriores a su deceso—, obtener productos hiperrealistas, información denominada «sintética» que por su apariencia de verosimilitud puede confundir enormemente.

Este tipo de datos, y los productos con ellos generados artificialmente replicando cualidades y propiedades de datos e información real, pueden pretender evitar exhibir información personal de seres o fuentes humanas reales, con la intención de no desvelar identidades individuales o detalles sensibles de aquellas, pero también pueden añadir rasgos inciertos, manipulaciones torticeras, patrones irreales, escenarios confusos, con la intención de generar conclusiones falsas, lejanas y alejadas de lo que la Justicia necesita como genuino y confiable.

Tal IA manipulada, altamente hiperreal y de apariencia verosímil, muchas veces no será detectable con sólo la función «hash» —que únicamente aseguraría que un documento no ha variado después de su última versión confeccionada y así resumida— ya que no se podría saber si también lo fue antes de sacarle el «hash».

El «marcado» regulado en el art. 48 del RIA y definido en el parágrafo 24 de su art. 3 (13) , obviamente no va a ser garantía suficiente ni por supuesto será utilizado por quien añada o altere torticeramente información que pretenda generar resultados de apariencia real pero irreales, y, en consecuencia, quien se vea desfavorecido por ultra suplantaciones tendrá que someter esa IA a objeto de prueba.

El Anexo III, punto 6.c RIA, categoriza como de «alto riesgo» conforme a su art. 6.2 a las propias herramientas IA que sirvan para «evaluar la fiabilidad de las pruebas durante la investigación o el enjuiciamiento de delitos».

Algunas de ellas, como podría ser el comúnmente denominado «detector de mentiras», que aparentemente no incurre en las prohibiciones de uso del art. 5.1 RIA, y que tiene una alta aplicación en materia de aseguramiento de identidad —aspecto muchas veces crucial en el proceso penal—, podría incluso pretenderse como de uso obligatorio a modo de «generales de la ley», ahora que científicamente el uso de imágenes de resonancia magnética funcional (IRMf) parece detectar con un 90 % más de precisión que cualquier polígrafo las reacciones en ciertas zonas del cerebro vinculadas a la toma de decisiones que se activan cuando se miente (14) .

Por su parte, la ciencia forense está desarrollando mecanismos de detección de productos sintéticos hiperrealistas creados con IA tanto en el uso de la imagen (el denominado FaceForensic trabaja sobre sensores en cámaras generadoras de imágenes, o evalúa el contenido de imágenes dubitadas estudiando sus características, movimientos, iluminación, enfoque, asimetrías…, y en las humanas: su parpadeo, movimiento de labios, reflejo dental ….), como en el examen de metadatos (que identifiquen sus fuentes y procesen el historial de acceso) etc., de manera que ya hay entidades que emiten este tipo de pericias científicas para garantizar o descartar la autenticidad de productos generados con herramientas IA.

IV. La IA como medio de prueba

Por su parte, desde el momento en que puede analizar, interpretar y deducir conocimientos, la IA, singularmente la asistencial —para que la decisión, humana, informada, técnica en Derecho, continue siendo la tarea principal del Juez— perfectamente, se va a ir erigiendo en medio probatorio.

A través de sus inferencias, muchas herramientas de IA le trasladarán al Juez los «necesarios conocimientos científicos, artísticos, técnicos o prácticos» que precise en la resolución de un asunto concreto «para valorar hechos o circunstancias relevantes» en él «o para adquirir certeza sobre ellos».

Nos encontraríamos ante la IA como prueba pericial.

Como la propia herramienta analítica no podrá explicar en el proceso penal por sí misma en diálogo contradictorio (aunque se podría intentar a través de interfaces con rostro humano tipo hologramas explicadores con uso de chats conversacionales con lenguaje natural) el campo de lo analizado, entrenado y concluido, deberá —como hacemos con la prueba de ADN— hacerlo su programador o un experto en IA, que será el encargado de responder a las explicaciones que requieran mediante preguntas cruzadas de las partes y, en su caso, del propio Juez.

A las ventajas que la IA pericial supone, entre ellas: recopilación y análisis de gran volumen de información con enorme precisión y rapidez; automatización de tareas, identificación de patrones, simulación de escenarios, entrenamiento de circunstancias que ayudan a precisar mejor sus conclusiones y que suelen pasar desapercibidas al ojo humano; deducciones más objetivas dado que minimiza la influencia de los sesgos personales; máxima rentabilidad en el análisis de información ya digitalizada, sobre todo en las pericias sobre la actividad digital —donde el ejemplo ya reseñado de la pericial sobre desprestigio/difamación reputacional en redes sociales— es paradigmático, dado que permite rastrear la procedencia, antecedentes, identificar patrones, su veracidad, identidad, obtención (el análisis de sus metadatos, la ruta de acceso , el historial de sus versiones o modificaciones anteriores…) la detección de posibles bots amplificadores de la difusión de lo investigado, la comparación de estilos/comportamientos…..

Lo anterior se compensa valorando igualmente sus posibles desventajas, que las tiene: además de su falta de explicabilidad y de transparencia —black boxes, código fuente y su posible obsolescencia— al no mostrar el método empleado; que disminuye las habilidades humanas y la fluidez en el diálogo explicativo; que hereda sesgos propios; que puede ser hackeado, manipulado, alterado, adulterado su algoritmo o su entrenamiento, y, que puede atacar instrumentalmente derechos fundamentales como la privacidad ajena, la protección del dato personal y, en definitiva principios fundamentales del debido proceso.

En el juego de unas y otras, el Juez se asistirá de ese experto automatizado cuya existencia –«lo que no está en los autos, no está en el mundo» (15) — deben conocer y poder contradecir las partes procesales, que le podrá servir para la correcta adopción de la toma de decisión, dado el mayor campo informativo del que se haya servido, la mayor velocidad de procesamiento, entrenamiento y relación entre los conocimientos, variables y su sopesamiento/ponderación, menor coste económico, y si aplica los consensos de la comunidad científica al concreto contexto circunstancial, ayudará, sumando las capacidades humanas —críticas y correctivas a los fines del caso que se le presente a juicio— del Juez, a que la resolución judicial, a la postre, sea más precisa y adecuada, más justa.

Por otra parte, como la IA no deja de ser software evolucionado, las deducciones e información que pueden inferirse de ella tendrán la cualidad de prueba documental, y, en concreto, el tratamiento procesal de la prueba documental electrónica.

Su incorporación al proceso penal debe agotar las garantías exigidas por los arts. 268 (LA LEY 58/2000) y 268 bis de la Ley de Enjuiciamiento Civil (LA LEY 58/2000) que se remiten a las de la Ley 18/2.011, de 5 de julio (LA LEY 14138/2011), reguladora del uso de las tecnologías de la información y la comunicación en la Administración de Justicia que, junto con algunas disposiciones —art. 3— de la Ley 6/2.020 (LA LEY 21517/2020) reguladora de determinados aspectos de los servicios electrónicos de confianza, en materia de IA, se complementan con las del RDL 6/2023, de 19 de diciembre (LA LEY 34493/2023) y el RD 817/2023, de 8 de noviembre (LA LEY 29419/2023).

Para su conocimiento y admisión debe aportarse la herramienta/aplicativo que la contenga para su discusión crítica, en su caso, y propio reconocimiento judicial.

La admisibilidad/pertinencia del uso de la herramienta IA dependerá, como dice la norma, de su naturaleza, y el Juez, en primer lugar, podrá excluirla si no ayuda al objeto del proceso y obviamente —art. 5 RIA— si es alguna de las consideradas en él como prohibidas, en especial, las de su parágrafo:

  • a) «técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar de manera sustancial el comportamiento de una persona o un colectivo de personas»;
  • b) las «que exploten alguna de las vulnerabilidades de una persona física o un determinado colectivo de personas derivadas de su edad o discapacidad, o de una situación social o económica específica, con la finalidad o el efecto de alterar de manera sustancial el comportamiento»;
  • d) las que realicen «evaluaciones de riesgos de personas físicas con el fin de valorar o predecir el riesgo de que una persona física cometa un delito basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad» …salvo que «se base en hechos objetivos y verificables directamente relacionados con una actividad delictiva»;
  • e) las que «creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión»;
  • f) las que infieran «emociones de una persona física en los lugares de trabajo y en los centros educativos», salvo que se obtuvieran «por motivos médicos o de seguridad» o
  • h) las de «identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho, salvo y en la medida en que dicho uso sea estrictamente necesario para alcanzar uno o varios de los objetivos siguientes:
    • i)  la búsqueda selectiva de víctimas concretas de secuestro, trata de seres humanos o explotación sexual de seres humanos, así como la búsqueda de personas desaparecidas,
    • ii)  la prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de una amenaza real y actual o real y previsible de un atentado terrorista,
    • iii)  la localización o identificación de una persona sospechosa de haber cometido un delito a fin de llevar a cabo una investigación o un enjuiciamiento penales o de ejecutar una sanción penal por alguno de los delitos mencionados en el Anexo II (16) que en el Estado miembro de que se trate se castigue con una pena o una medida de seguridad privativas de libertad cuya duración máxima sea de al menos cuatro años».

Aunque en el proceso civil tipo no cuente con más presunción de autenticidad que la que le otorguen las partes, en el penal la convicción judicial —certeza, fiabilidad, credibilidad de la prueba— podrá basarse en ella si motivadamente se fundamenta –«sana crítica» explicada según las reglas de la lógica, razón y teniendo en cuenta la valoración conjunta de la prueba—, para lo cual, por un lado, las partes podrán combatir la veracidad o no de sus conclusiones mediante prueba en contra —singularmente pericial— o, por otro, podrán fundar en un principio de prueba la sospecha de que aquellas no han concluido acertadamente, ya sea porque la herramienta IA haya excluido información necesaria, no la haya entrenado o haya realizado los sopesamientos/ponderaciones/evaluaciones en su árbol de decisión de manera inadecuada, para lo que, si se solicita, se le debe dejar acceder al conocimiento de las variables que se hayan usado en la confección algorítmica de sus inferencias.

Como prueba documental electrónica que es, el art. 25 del Reglamento eIDAS, 910/2.014, del Parlamento y del Consejo, de 23 de julio y art. 3 de la Ley 6/2.020, de 11 de noviembre (LA LEY 21517/2020), de servicios electrónicos de confianza, establecen además el esquema oficial de autenticidad siguiente:

  • Si usó firma electrónica no cualificada/simple, tendrá el valor de un documento privado, que el Juez aceptará según se impugne y pruebe su veracidad.
  • Si usó firma electrónica avanzada, igualmente el que el Juez entienda derive de su impugnación y prueba, y
  • Si usó firma electrónica cualificada, (con el apoyo del art. 326.4 LEC (LA LEY 58/2000)) la tendrá por auténtica (aunque, párrafo segundo, la búsqueda de la verdad material admite prueba en contra).

En definitiva, una interpretación —pericial— u otra —documental electrónica—, ayudarán a una mejor y más completa valoración jurídica del conjunto del acervo probatorio.

La aportación novedosa de la nueva herramienta asistencial IA en el nuevo proceso judicial, supondrá, si se complementa con su sometimiento a la crítica y contradicción de las partes, sin duda, una evidente mejora de la final labor judicial.

Scroll