I. Primeras consideraciones de la inteligencia artificial como medio de investigación
En un momento en que la inmensa mayoría de los textos sobre inteligencia artificial (IA) se afanan en revisar la Ley europea de inteligencia artificial aprobada este mes de marzo, debo iniciar esta pequeña aportación indicando que el Anexo III califica en su apartado 8 la administración de justicia como sistema de alto riesgo, pero el artículo 6 también recoge exclusiones. Igualmente, el Real Decreto-ley 6/2023 (LA LEY 34493/2023) recoge una serie de «actuaciones procesales automatizadas» que bien pudieran tratarse de inteligencia artificial y que ayudarían en tareas tan simples como realizar un índice de causas extensas, y que también podría incluir otras actividades que auxiliaran en la instrucción.
Este texto pretende ser una visión optimista de la utilidad que puede aportar la utilización de la inteligencia artificial para la resolución de casos que se encuentran en vía muerta. Y es que, desde hace unos meses, con la revolución que nos está trayendo la llamada «segunda etapa de la inteligencia artificial» —esa que, de momento sólo nos parece percibir a través de los textos que elabora ChatGPT, al alcance de cualquier usuario—, se nos muestran multitud de ventajas hasta el punto de hablar en todos los procesos digitales de un antes y un después.
En esta situación hay que recordar aquellos primeros artículos jurídicos que allá por el año 2020 preconizaban la «desantropologización» jurídica creando de los dispositivos con inteligencia artificial nuevos sujetos de derecho que merecían ser protegidos incluso desde los derechos humanos [por citar alguno, CEBALLOS ROSERO, Revista Estudios Socio-Jurídicos, vol. 22, núm. 1, 2020], teorías éstas que se abandonaron, a mi entender, en cuanto se advirtió lo que era la inteligencia artificial y que no era un nuevo ser vivo pensante. Es decir, llevamos varios años escribiendo sobre una tecnología que no siempre hemos entendido pero que se antoja muy útil. No quiero desviarme aquí en explicar lo que es, para lo cual me voy a remitir de manera estricta a la definición dada por el Grupo de Expertos de Alto Nivel en el Libro Blanco de la Comisión Europea sobre Inteligencia Artificial: «Los sistemas de inteligencia artificial son elementos de software (y en su caso, también de hardware), diseñados por seres humanos y que, dado un objetivo complejo, actúan en la dimensión física o digital, perciben su entorno mediante la adquisición e interpretación de datos estructurados o no estructurados recogidos, razonan sobre el conocimiento o el procesamiento de la información derivada de estos datos e identifican y adoptan la(s) mejor(es) medida(s) a tomar para lograr el objetivo determinado.» En definitiva, estamos ante un nuevo desarrollo informático que de forma alguna puede arrogarse derechos, pero sí debe ser objeto de examen desde la perspectiva jurídica.
En menos de cuatro años, basta revisar las últimas publicaciones para advertir que la extensión de efectos de esta nueva tecnología a todos los ámbitos de la justicia resulta ya inabarcable
En menos de cuatro años, basta revisar las últimas publicaciones para advertir que la extensión de efectos de esta nueva tecnología a todos los ámbitos de la justicia resulta ya inabarcable: digitalización de los sistemas procesales, protección de datos recopilados y tratados por IA, afectación de derechos humanos y, de lo que voy a hablar aquí, el examen de pruebas para la resolución de casos.
Para esto, acompaña el título el término inglés «cold case». Aunque pueda pecar de explicar lo evidente, un «cold case» es aquel caso criminal que ha quedado sin resolver durante un período prolongado después de haber sido investigado inicialmente y que no ha mostrado actividad reciente debido a la falta de pruebas o pistas o debido a no encontrar un hilo del que tirar entre toda la maraña de pruebas recopiladas. Suele tratarse de casos de homicidio o de personas desaparecidas. Estos casos suelen permanecer abiertos en espera de nuevas evidencias o avances en tecnología forense que puedan proporcionar nueva información para, potencialmente, resolver el crimen. Ocasionalmente, y antes de que se cumplan los 20 años desde las últimas actuaciones, se reactivan estos casos con la intención de no dejarlos prescribir. La técnica habitual en estos casos por las fuerzas del orden es utilizar nuevas tecnologías que antes no estaban disponibles a las pruebas recabadas hace años con la esperanza de obtener nuevos resultados. Un ejemplo para esta resolución de casos, frecuentemente, era través de la utilización del análisis de ADN de las pruebas biológicas recabadas años antes, cuando tal análisis no se realizaba. Además, la introducción de la IA ha supuesto que la comparación del ADN que aparecía en las bases de datos ya no se compare de una forma manual o mediante búsquedas supervisadas por expertos, sino que la propia IA realiza el contraste de coincidencias genéticas priorizando instantáneamente a las personas de interés incluso mediante aciertos parciales de ADN.
Ahora disponemos de esta nueva herramienta cuya aplicación en este tipo de casos parece que pudiera traer luz a lo que parecían callejones sin salida. Para ello vamos a partir de que la inteligencia artificial no puede realizar nuevas pruebas, pero sí analizar las existentes. En estos casos una constante suele ser una amalgama enorme de información que no necesariamente constituye aún prueba como tal, pero cuya falta de organización en sus archivos, la descentralización de documentos y el cambio del personal que investigaba la causa da lugar a un abandono, ya que el estudio del mismo supone una enorme inversión de tiempo y esfuerzo que resulta más eficiente emplear en los nuevos asuntos que en otros que parecen estancados. Esto también supone que, cuando surge una nueva posibilidad de investigación mediante nuevas tecnologías o técnicas, resulta difícil identificar qué casos podrían beneficiarse de estas. Con ello, debemos igualmente rebatir la postura mantenida por MUÑOZ RODRÍGUEZ (Anuario de la Facultad de Derecho. Universidad de Extremadura 36 (2020): 695-728) según la cual en materia de prueba «la IA no podrá ser utilizada cuando se trate de jurisdicciones como, por ejemplo, la penal o las causas centradas en el derecho de familia, puesto que, en estos casos, además de indicadores objetivos, aparece un elenco de derechos subjetivos que han de tenerse en cuenta y que necesitan la interpretación del juez» y ello porque entiende que no deja de ser una investigación tecnológica. En mi opinión, nada más lejos de la realidad, ya que, como expondré a continuación, el uso de la IA no presenta una afectación de derechos fundamentales que implique una intervención judicial. Incluso podría plantearse si se trata de la generación de una nueva prueba electrónica.
La web de la policía holandesa, por poner un ejemplo entre otras muchas, afirma estar avanzando en diversos asuntos utilizando la IA. Añaden «El objetivo es que la IA pueda leer los casos sin resolver que estamos digitalizando actualmente y decidir cuáles contienen evidencia prometedora que podría llevar a resolver el caso» [https://thenextweb.com/news/how-the-dutch-police-is-using-ai-to-unravel-cold-cases]. Y nuestro objetivo aquí es ver cómo puede ayudar la IA en nuestros casos sin resolver.
II. Propuestas de investigación mediante el análisis de documentos por la inteligencia artificial
Esta pequeña aportación se basa exclusivamente en el análisis de aquellos documentos que pueden ser unidos al procedimiento constituyendo prueba en el mismo, excluyendo así el análisis de imágenes, voz, etc. Es más, la prueba con soporte documental conteniendo texto, que es uno de los mayores desarrollos de la IA, es la predominante en todo procedimiento, tanto civil como penal. El art. 382 LEC (LA LEY 58/2000), subsidiario para todos lo órdenes, requiere la transcripción de toda palabra contenida en un soporte grabado por voz o imagen. En el ámbito de la LECr. únicamente se prevé la transcripción de las conversaciones captadas a través de conversaciones telefónicas en el art. 588 ter h, pero esto no es un impedimento para la aportación de otras conversaciones captadas como material probatorio, por ejemplo, ex art. 282bis LECr., o testificales videograbadas en virtud de los artículos 433 y 499 bis LECr. Con ello, aún cuando la prueba aportada al procedimiento no sea necesariamente escrita, el análisis del texto transcrito puede ser un elemento de gran utilidad, como se verá a continuación.
No desconozco aquí las propuestas emitidas por SIMÓN CASTELLANO (2022, en Ortega, Derecho Penal), el cual proponía en el ámbito de la investigación criminal utilizar «sistemas que combinan el análisis visual de la escena del crimen para lograr una interacción analítica entre datos en tiempo real, proponiendo a los investigadores tesis razonables sobre los hechos, que luego deberán ser contrastadas y/o refutadas por las autoridades». Marcando aquí algunas objeciones al análisis de imágenes por IA que se expondrán en los párrafos siguientes, la pretensión de no extender en exceso este artículo me obliga a restringir mis propuestas de utilidad de la inteligencia artificial a los datos predominantemente escritos habitualmente incorporados al procedimiento, aunque no solo.
Para poder abordar un análisis por IA resulta básico poder digitalizar todos estos contenidos. No en vano, como ya indicara el Consejo de Europa, en material penal el 85% de la prueba aportada en juicios es de carácter electrónico (https://www.consilium.europa.eu/es/policies/e-evidence/), y esto, sin contar con los documentos meramente digitalizados. Pero sí, también los documentos analógicos deben ser objeto de digitalización para poder utilizar la IA, como ya se ha hecho en juzgados. La digitalización de archivos y registros, evidentemente bajo un reconocimiento OCR, requiere inversión en tiempo y recursos para la digitalización, así como en personal debidamente formado pero resulta imprescindible. Una vez hecho esto, disponemos de varias opciones de actuación, pero por resultar inabarcables en un artículo de estas dimensiones, me voy a limitar a aquellos supuestos donde el análisis se limita a los textos obrantes en las actuaciones y en los archivos policiales.
Tenemos que tener en cuenta que este tipo de casos, a base de investigaciones diseminadas a través del tiempo y realizadas por personas distintas acaban dando lugar a textos ampliamente desestructurados, es decir, que no tienen un formato predefinido y no tienen una sistemática interna. Igualmente, dicha falta de estructura puede reflejarse en la aportación a las actuaciones de informes duplicados o de otros que adolecen de un estudio en profundidad de la situación previa, limitándose a incorporar nuevos datos desconexos. En esos caso, también puede haber un impacto en la causa en caso de rotatividad del juez. Si se trata del juez que inició la causa, puede estar muy al día de todo lo acontecido y, si no, le supondrá un estudio en profundidad de la misma para saber la relevancia de las nuevas aportaciones fruto de las investigaciones policiales. Algunos ejemplos de texto desestructurado que se almacenan en estas investigaciones y se acumulan en la causa pueden ser correos electrónicos, publicaciones en redes sociales, transcripciones de conversaciones telefónicas, o declaraciones testificales ante la policía y en el juzgado, e incluso notas escritas a mano digitalizadas posteriormente.
Puesto que la información contenida en estos textos no sigue un patrón uniforme y esquemático que permita seguir un hilo argumental de cómo se produjeron los hechos, el procesamiento y análisis de datos desestructurados, y más cuando han transcurrido varios años, estos datos desestructurados se beneficiaría de tecnologías avanzadas basadas en la IA a través de la minería de datos, analiza grandes volúmenes de datos con el fin de hallar patrones que expliquen su comportamiento en un contexto determinado, así como a través del procesamiento de lenguaje natural (PLN) para extraer información útil y significativa e incluso detectar posibles contradicciones, así como. Ya estamos familiarizados con este PLN aunque no nos hayamos dado cuenta. Lo encontramos en el software de nuestros dispositivos móviles y portátiles cuando se activan herramientas como la autocorrección, la autocompletación, pero también en los motores de búsqueda aún cuando no encuentra exactamente el texto que proponemos. Con el PLN, estas aplicaciones son capaces de procesar y «comprender» las entradas en lenguaje humano, y responder de alguna manera, como por ejemplo, identificando automáticamente «insights» relevantes, proponiendo correcciones ortográficas o completando palabras en proceso de escritura. A los insights volveré un poco después.
Ya se dispone de herramientas de análisis de texto a través de IA que se comercializan y son utilizadas en diversas industrias pueden llevar a cabo funciones esenciales que contribuyen a agilizar y equilibrar las revisiones de casos sin resolver
Ya se dispone de herramientas de análisis de texto a través de IA que se comercializan y son utilizadas en diversas industrias pueden llevar a cabo funciones esenciales que contribuyen a agilizar y equilibrar las revisiones de casos sin resolver. En realidad, la necesidad de analizar grandes volúmenes de información no es exclusiva del ámbito de la justicia penal, sino que resulta de alto impacto en sectores como el sanitario y el comercio electrónico que también tratan con gran cantidad de datos de carácter heterogéneos. Por ese motivo, pueden adoptarse tales herramientas para la resolución de casos —no solo los no resueltos, pero especialmente estos—.
A través de este análisis de podrían extraer automáticamente detalles del caso que pudieran resultar esenciales, identificar nombres, lugares y palabras clave, identificar personas que, pese a recibir distintos sobrenombres por distintos declarantes, resulta ser la misma persona, y, fundamentalmente, realizar un índice automatizado sobre esta información que permia guiar a investigar al documento o documentos concretos de los que extrae dicha información.
Puede ayudar a filtrar conversaciones grabadas y, en su caso, transcritas, utilizando para ello la detección de términos o expresiones advertidas en otros casos similares o incluso a través de todas las conversaciones del caso ayudando a determinar a través de las mismas determinadas intencionalidades o motivaciones. Aquí es donde gana relevancia el insight. El término insight proviene del inglés y significa entendimiento, percepción o conocimiento o, mi traducción favorita, visión. Un «insight» se refiere a una comprensión profunda y clara de una situación o problema, a menudo obtenida a través del análisis de datos o información. De nuevo hay que reseñar que el ámbito de la justicia es un neófito frente a otros ámbitos como el marketing, la investigación de mercado o la psicología, pero en todos ellos se refiere a la revelación o descubrimiento significativo que proporciona una nueva perspectiva sobre un problema o abre nuevas vías para resolverlo. Como aquí estamos hablando de analítica de datos de un caso, el insight sería un hallazgo obtenido a través del análisis de los datos que están en el caso. Los insights proporcionados por la IA en estos casos pueden consistir en conexiones previamente pasadas por alto entre sujetos o proporcionar explicaciones no identificadas hasta el momento.
Otra de las funcionalidades una vez se vaya desarrollando la base de datos elegida es establecer vínculos entre casos al identificar información compartida. Estas herramientas de IA tienen la capacidad de esbozar posibles vínculos y coincidencias a lo largo de una diversidad de situaciones, indicando relaciones que quizás no serían obvias sin una compilación y evaluación detallada. Estos vínculos pueden basarse en la intervención de sujetos idénticos, ubicaciones idénticas o próximas, identidad de características de los vehículos, similitudes del modus operandi… con estas herramientas se pueden sugerir potenciales conexiones.
En un escenario también de carácter preventivo, se pueden extraer datos que permitan conocer las ubicaciones o circunstancias que dan lugar a un mayor índice de delincuencia.
Puede transcribir conversaciones telefónicas completas otorgando un escenario más coherente al análisis del caso. Debemos recordar aquí que el art. 588 ter f) LECr. expresa la necesidad de grabar la conversación completa, lo cual es esencial a fin de preservar la integridad de la prueba y que la misma no se vea manipulada dando lugar a entender la conversación en un contexto distinto. Ahora bien, la transcripción no es necesariamente total, ya que el artículo 588 ter i LECr permite transcribir sólo las partes relevantes. Adicionalmente, una transcripción completa consume un tiempo precioso a la investigación. La ventaja de la IA es que puede transcribir la totalidad y analizar las partes relevantes que deben ser unidas a las pruebas que se aportan al proceso, sin perjuicio de que en el archivo policial se mantenga el resto. Nada impide que posteriormente se advierta que alguna otra parte de esta conversación podía haber sido relevante en tanto en cuanto la totalidad de la conversación grabada debe constar aportada a los autos aunque no haya sido objeto de transcripción. Pero esa transcripción total, aunque no esté aportada inicialmente, sí puede generar nuevas conexiones y vínculos inesperados que, de no haberse tratado, habrían pasados desapercibidos. Nada impide la aportación posterior de la transcripción de nuevas partes que pudieran estimarse relevantes.
Por otra parte, si bien uno de los principios de investigación policial es no descartar ninguna vía, lo cierto es que el sesgo puede estar siempre presente y haber dado lugar a descartar a algún posible interviniente en los hechos. El uso de herramientas de texto basadas en IA puede ayudar a generar una revisión del caso reduciendo e incluso eliminando los sesgos eliminando factores humanos, sesgos y subjetividad, permitiendo que los resultados sean más objetivos y menos influenciados por información que no es crítica o no es relevante. En este caso debo también insistir en que estoy tratando del sesgo verbal y no visual, ya que se ha detectado que, en la identificación de rostros, los sistemas de IA son más avanzados en la identificación de rostros europeos que de otras razas, lo que provoca resultados no siempre muy ajustados a la realidad cuando se trata de personas de otros orígenes.
Igualmente, el análisis de textos puede generar sugerencias de lagunas de información, así como de pruebas adicionales para suplirlas. Entre otras pruebas que puede sugerir, puede incluso elaborar una propuesta de interrogatorio o cuestionario para diversos testigos o investigados.
Por último, el sistema de IA debe tener mecanismos de aprendizaje y descarte. Así, aunque no consta documentado y lo conozco por mero relato, por lo que no citaré la fuente, se detectó en el análisis de redes en busca de material pornográfico infantil que muchas de las fotografías que se detectaban como posibles fotos de pornografía infantil no tenían nada que ver con lo que se buscaba, hasta que se dieron cuenta de que había un elemento común en todas ellas: una bolsa de plástico que solía también aparecer en las fotos identificadas como pornografía infantil. Ese bug había provocado que el aprendizaje fuera erróneo al identificar las bolsas de plástico como elementos de pornografía infantil. Un debido filtrado y reaprendizaje permitió excluir este error. Del mismo modo, cuantas más fotos identificadas sean identificadas ante el sistema como correctas, éste adquirirá una mayor precisión. Del mismo modo, en la identificación de patrones de texto, cuanto más texto analice y se coteje, mayor será su aprendizaje y mayor será su exactitud.
Todas estas valoraciones realizadas a través de la inteligencia artificial y en sede tanto policial como judicial pueden ser de extrema utilidad para advertir elementos que se habían pasado por alto y que merecen, pasados los años, un nuevo examen desde otra perspectiva o con otra lectura diferente. En el caso de aquellos realizados por fuentes policiales pueden aportarse al procedimiento a través de su incorporación a un informe valorativo por la unidad correspondiente y constituir un elemento probatorio más que deberá ser objeto de valoración judicial. Ni que decir tiene que el proceso que da lugar a dicho informe de IA debe ser objeto de supervisión humana. Otra opción es la solicitud de emisión de dicho informe y utilizarlo como base para escribir posteriormente un informe íntegramente de generación personal. Sin embargo, si el informe generado por IA se uniera a las actuaciones como tal, requeriría un anexo valorativo equivalente a esa supervisión humana a la que acabo de referirme y aportar pruebas de que los programas empleados deben tener transparencia externa o trazabilidad y transparencia interna o explicabilidad. Sin embargo, aquí lo relevante es, insisto, una supervisión humana del resultado, especialmente en aquellas aportaciones al procedimiento civil o penal.
III. Algunas aplicaciones prácticas actuales de la IA en la investigación criminal
En esta fase, procede abordar precisamente aquellos programas cuya transparencia externa e interna ha sido ya verificada y se están utilizando en la actualidad para resolver casos, especialmente los que se encontraban en vía muerta. Una búsqueda rápida en prensa nos permite advertir el caso de la desaparición de Mark Himebaugh, investigado actualmente por la policía de New Jersey mediante el programa Vollee AI de Terawe Corp. También recientemente el caso francés de Grégory, desaparecido en 1984, pretende reactivar su investigación mediante análisis realizados a través de IA sobre la voz grabada de quien emitiera las amenazas en aquel momento contra la familia combinados con análisis de ADN, si bien no han identificado ninguno de los programas que pretenden utilizar. Con ello, vamos a adentrarnos en los programas de IA de los cuales consta información suficiente sobre su utilización actual.
Además del ya mencionado Volee AI, uno de los más renombrados es IBM i2 Analyst’s Notebook, el cual analiza de forma visual y avanzada datos de apoyo a investigaciones para combatir actividades criminales donde, además de recopilar y analizar, se pueden compartir datos y resultados de inteligencia, ayudnado a identificar patrones comunes entre los casos. Palantir Gotham, por su parte, es una opción personalizada dirigida fundamentalmente a agencias gubernamentales y fuerzas del orden cuya finalidad es combinar información y descubrir patrones previamente no vistos e identificar relaciones entre conjuntos de datos que van desde publicaciones en redes sociales y direcciones hasta números de matrícula y relaciones personales. El servicio luego reúne todo ese contenido en gráficos y tablas fáciles de entender. En cuanto al reconocimiento facial, la herramienta más utilizada es Clearview AI, la cual posee una amplísima base de datos de imágenes públicas y que se puede utilizar para identificar sospechosos, testigos o para hacer retratos robot partiendo de descripciones o incluso de cráneos.
Otras opciones que pueden ser utilizadas son herramientas cuya finalidad es realizar predicciones sobre la posibilidad de la comisión de delitos, ya que estas predicciones con carácter ex post a la comisión del delito puede arrojar nuevos datos que no se habían considerado al principio de la investigación. Por citar sólo algunos de éstos, HunchLab, utilizado por las policías de Nueva York y de Filadelfia, es uno de los más afamados programas creado por Azavea. En sus inicios, aún sin haber implementado inicialmente la IA, sino meros algoritmos ya próximos a lo que hoy entendemos por IA, ha sido aplicado con asiduidad por diversas fuerzas del orden desde 2014. Azavea lo transfirió posteriormente a Shotspotter para que éste continuara su salto en la programación. Hunchlab comenzó siendo una herramienta de carácter preventivo para la alerta policial temprana a ser un sistema de «predicción del crimen», utilizado por unidades policiales de «precrimen» (v. https://www.elmundo.es/ciencia/2014/09/07/540a09c6e2704ea91f8b45a4.html), excluyendo todo tipo de vigilancia ciudadana que no esté vinculado al crimen. De hecho, se basan fundamentalmente en la vigilancia por ubicación geográfica. Si bien su enfoque principal es la prevención, los métodos que utiliza para dichas predicciones pueden ser aplicables en la revisión de casos no resueltos. También de IBM se está utilizando por la policía de Edmont, Memphis, Miami y Manchester el programa SPSS que, utilizado en materia de delito, es capaz de manejar grandes conjuntos de datos provenientes de diversas fuentes, lo que es esencial en el análisis de delitos. Los datos pueden incluir informes de incidentes, perfiles demográficos, información geográfica, generando informes detallados y apoyados en gráficos, siendo extremadamente útiles para la predicción delictiva. Esta herramienta, combinada con Coplink, también de IBM, permite a los departamentos de policía integrar y analizar vastas cantidades de datos útiles, como registros de detenciones, incidentes de cualquier tipo de individuos concretos, y otros datos relevantes para investigaciones. Otras herramientas de predicción de crimen que utilizan IA son PredPol y Series Finder, con características semejantes a HunchLab.
Por último debe citarse el sistema Valcri, abreviatura de Visual Analytics for Sense-Making in Criminal Intelligence Analysis, el cual comenzó como proyecto de AI para la automatización del proceso de razonamiento en la investigación criminal en el año 2018 y desde el 2019 se encuentra en proceso de pruebas reuniendo datos de la policía de Reino Unido. Lo cierto es que no están autorizados a divulgar resultados obtenidos en la actualidad, pero se está utilizando en Europa y Estados Unidos y se ha autorizado su utilización en un nuevo proyecto de la iniciativa Horizonte 2020: SPIRIT.
No puedo terminar este apartado sin indicar que muchos de estos programas incluyen también técnicas que incluyen OSINT (siglas para Open Source Intelligence), es decir, recopilan información que se encuentra a disposición de todos a través de internet para generar inteligencia. Sin embargo, también hay que indicar que, aunque aún no somos conscientes, la IA está generando contenido en internet por sí misma y sin control humano, lo que impide verificar su precisión o cuánto se ajusta a la realidad. Probablemente acabaremos hablando de internet antes y después de la IA, aunque tampoco ahora seamos conscientes. Con ello, estas fuentes OSINT dejarán de ser fiables y pueden generar más desviaciones en los casos.
IV. Conclusiones: la exclusión del alto riesgo en la aplicación de la AI en cold cases
Aún cuando la administración de justicia haya sido incluida por la AI Act como uno de los sistemas de alto riesgo, la inclusión de la IA en estos procesos de investigación o instrucción no puede calificarse de alto riesgo. El artículo 6, el cual se ve completado por el anexo III pero establece condiciones de exclusión, entre ellas que el sistema de IA está destinado a mejorar el resultado de una actividad humana previamente realizada; que el sistema de IA esté destinado a detectar patrones de toma de decisiones o desviaciones de patrones de toma de decisiones anteriores y no está destinado a sustituir o influir en la evaluación humana previamente realizada, sin la debida revisión humana; o que el sistema de IA esté destinado a realizar una tarea preparatoria de una evaluación. Tal y como aquí se ha venido explicando, la finalidad de la aplicación de la IA a estos casos pretende fundamentalmente incrementar la eficacia de la actividad investigadora e instructora y siempre se ve sometida finalmente a una revisión humana, ya sea a través de la revisión del informe que se adjunta a las actuaciones, ya sea a través de la valoración judicial. Para ello, es esencial que cuando dichos informes se introducen en el procedimiento resulten debidamente identificados como informes, estadísticas, datos, etc. elaborados por IA, de forma que el juez sea consciente de que realice una revisión aún si cabe más cautelosa, de forma que su decisión no se fundamente en dicho informe, sino en el resto del acerbo probatorio, con independencia de que dicho informe destaque algunos aspectos relevantes del caso.
La esperanza final es que el paso del tiempo en estos cold-cases no haya perjudicado determinadas pruebas que pudieran haber sido de interés, que el testigo identificado por IA como relevante no haya olvidado datos, que determinadas pruebas biológicas no se hayan destruido, etc., y, sobre todo, que el transcurso del tiempo sin actividad instructora alguna no haya conducido a la prescripción.