Cargando. Por favor, espere

La policía predictiva más allá de Minority Report

La policía predictiva más allá de Minority Report (1)

Luis Lafont Nicuesa

Fiscal y doctor en Derecho

Diario LA LEY, Nº 10687, Sección Doctrina, 19 de Marzo de 2025

LA LEY 3213/2025

Portada
- Comentario al documentoLa policía predictiva tecnológica, con las salvaguardas adecuadas es una herramienta adecuada para reducir la cadencia del crimen pero el sistema debe respetar los derechos fundamentales en su conjunto.La aplicación del programa genera una serie de derechos de nueva generación que sólo embrionaria y parcialmente se regulan normativamente. Las personas cuyos datos personales alimentan un programa predictivo tienen derecho a que existan sospechas objetivas de que haya protagonizado algún acto criminal y a la cancelación de los datos una vez pasado un tiempo razonable.Otro derecho capital del titular de los datos personales que alberga el sistema es que el mismo lo dirija un humano. Es indudable que la tecnología analiza más datos y a más velocidad que la persona pero no ha alcanzado un grado suficientemente avanzado de evolución para sustituirla, siendo imprescindible una intervención humana especializada que, sin restricciones, avale la predicción del algoritmo para que acceda al mundo real. Este derecho a la humanización se extiende también a los policías que deben aplicarlo quienes gozan del derecho a no ser gobernados desde la sombra de un algoritmo y que no sea una máquina la que les envíe a zonas de riesgo.Acudir a corporaciones privadas para elaborar estos programas es licito. El interés privado puede coexistir con el público, pero desde posiciones propias que no deben confundirse. La Administración, en materia de seguridad y garantías constitucionales, no puede ser una mera contratista y la empresa privada no puede vestir ropajes estatales para suplantar funciones públicas sin control alguno. La entidad pública debe supervisar al ente privado y conjurar cualquier abuso.El eje del sistema es la proscripción de algoritmos racistas y discriminatorios siendo fundamental la explicación de las variables que el programa emplea, la trazabilidad y una auditoría independiente del programa.Es precisa una regulación normativa holística que establezca las garantías y regule el empleo del algoritmo predictivo. En particular, la Ley de Enjuiciamiento Criminal debe fijar, siguiendo el modelo del Reglamento Europeo, las exigencias precisas para que el sistema pueda operar como indicio probatorio. Asimismo, la normativa administrativa tiene que establecer los derechos de los policías, tanto los del patrullero y analista frente al algoritmo, como los del policía frente al analista y, en la Ley de Seguridad Ciudadana, concretar los poderes y actuaciones policiales en la ejecución del programa predictivo. El legislador tiene la última palabra.

A mi madre, Maria Jesús Nicuesa quien cuando le comuniqué que había ganado el premio, lo primero que me dijo fue ¿Se lo has dicho a tu padre?

A mi padre, Luis Lafont Arregui, que allá donde esté, sé que se habrá sentido orgulloso.

«Estoy cansada. Estoy cansada del futuro» (La precog Agatha. Minority Report).

«Sr. Marks, por orden de la división precrimen del distrito de Columbia le detengo por el futuro asesinato de Sarah Marks y Donald Dubin que iba a suceder hoy 15 de abril a las 08 horas 04 minutos» (Detención bajo el programa PRECRIME. Minority Report).

I. Introducción

La película Minority Report (2) nos traslada al año 2054 a la ciudad de Washington DC, donde el programa PRECRIME ha acabado con los asesinatos y homicidios. Tres hermanos con poderes psíquicos (3) , los precogs, pueden predecir los crímenes antes de que se produzcan. Quienes aparecen en sus visiones como responsables de asesinatos son detenidos por una unidad policial de elite al mando de John Anderton (4) , quien desde una fe completa en el sistema interpreta las visiones de los hermanos. Su convicción quiebra cuando dos de los hermanos predicen que él mismo matará en 36 horas a una persona llamada Leo Crow, a quien no conoce de nada. Anderton se da a la fuga, convirtiéndose en un huido, víctima de la predictividad policial. Su objetivo es llegar a una de las precogs, Agatha, que no compartió el criterio de sus hermanos y quizás pueda demostrar la inocencia de Anderton.

La situación que analiza Minority Report puede ser una fantasía, pero esquemas no tan lejanos ligados a la predicción subjetiva se han instalado en numerosos departamentos de policía de los Estados Unidos (5) . Así, Minority Report no sería del todo una obra de ciencia ficción para Robert Mc Daniel, un hombre de raza negra de 22 años, que vivía en Chicago, cuando a finales del año 2013 recibió una visita no anunciada de un oficial del Departamento de Policía de Chicago que le advirtió que no cometiera más delitos. El problema es que Mc Daniel, carecía de antecedentes penales violentos por condenas de un tribunal, no había participado en ningún altercado ni tenido problemas recientes con la policía. Entonces, ¿Por qué un día un agente llamó a su puerta? La respuesta era que Mc Daniel era una de las personas a la que un programa predictivo aplicado por el Departamento de Policía de Chicago había pronosticado como potencialmente involucrado en crímenes violentos. La policía intentaba realizar lo que antes era una mera quimera: Evitar el dolor del delito antes de que se produzca. Programas similares a los de Minority report son una clara tentación para los responsables políticos y han llevado a las corporaciones y a los departamentos de policía a aliarse para vencer la incertidumbre del futuro. LUM e ISAAC (6) exponen que: «Aunque pueda recordar inquietantemente a la película Minority Report, el sueño de disponer de una herramienta que, en teoría, pudiera asignar de forma más eficiente los recursos policiales sería una gran ayuda para los departamentos que luchan contra unos presupuestos cada vez más reducidos y una presión cada vez mayor para responder mejor a sus comunidades». Los precogs representan la cristalización cinematográfica de la Inteligencia artificial y los algoritmos predictivos. Con sus diferencias (7) , Minority Report y la policía predictiva comparten dos aspectos sustanciales (8) . Ambas operan con falta de transparencia (9) y, fruto de la combinación de la ignorancia sobre el funcionamiento del sistema y de su éxito (10) , provocan un fervor cuasi-religioso (11) . Minority Report nos emplaza a un dilema moral y a la vez jurídico (12) que entronca con el clásico debate filosófico del libre albedrío frente al determinismo. Como resume JOSHUA (13) «¿Cabe detener a alguien por algo que no ha hecho? O de forma más jurídica. No se puede arrestar sólo por los pensamientos; por lo que ¿Hasta dónde pueden operar los poderes policiales cuando aún no se ha cometido un delito? La respuesta a la luz del Modern Penal Code estadounidense (2001) es negativa. Se exige que el detenido haya dado un «paso sustancial» fuertemente corroborador de su intención criminal, un punto de no retorno. En España, el pensamiento no delinque y la simple posibilidad futura no supera la frontera de los actos preparatorios. Señala SUAREZ XAVIER (14) que «la mera probabilidad de que se produzca una conducta delictiva no puede considerarse como correspondiente al delito mismo, ya que en este caso ni siquiera estaríamos ante actos preparatorios, tomando por referencia la dogmática penal y el creciente expansionismo penal en la sociedad global». Minority Report nos evoca también un escenario lombrosiano (15) . PREÇI y VYSHKA (16) afirman que Lombroso al estigmatizar al individuo propugna una posición determinista por la que si alguien tiene una inclinación innata a cometer delitos, podría ser exculpado porque este comportamiento es hereditario y está fuera de su control. Visto al revés, podrían, como en Minority Report, prevenirse delitos deteniendo de antemano a personas que no han cometido delitos graves en absoluto, simplemente porque tienen el potencial de hacerlo en el futuro, si bien Minoriy Report se centra en la visión futura del delito y no en las características antropométricas del delincuente.

Principales sistemas predictivos que existen en Estados Unidos, España y resto de Europa

En este trabajo describiré los principales sistemas predictivos que existen en Estados Unidos, España y resto de Europa, los problemas que giran en torno a los mismos y los requisitos que deben tener, en particular el respeto a la ley de protección de datos, para que puedan ajustarse a la legalidad y, de acuerdo al reciente Reglamento Europeo sobre Inteligencia Artificial (LA LEY 16665/2024), operar como una herramienta probatoria valida.

II. Concepto de policía predictiva

La predicción puede definirse en una primera aproximación como el empleo de grandes masas de datos que se analizan estadísticamente para saber que ocurrirá en un futuro. Aplicado a la policía es una estrategia policial concreta, afirma VAN BRAKEL (17) , que utiliza la vigilancia algorítmica para predecir futuros delitos, delincuentes y víctimas con el fin de intervenir antes de que se produzcan los delitos. Su finalidad es recopilar conocimientos sobre lo que ocurrirá en el futuro antes de llegar demasiado tarde. Es, en definitiva, nos dice la corporación RAND (18) «…el uso de modelos estadísticos para anticipar el aumento de los riesgos de delincuencia, seguido de intervenciones para evitar que esos riesgos se materialicen» (19) .

Se ha llegado a cuestionar que la policía predictiva exista como tal y que lo que tenemos realmente, afirma MIRÓ LLINARES (20) , es un sistema de cálculo de probabilidades de eventos futuros fijándose en los pasados y sus condicionantes. El riesgo de que algo ocurra, no significa que vaya a ocurrir, advierten GONZÁLEZ-ALVAREZ et al (21) . Con cierta desconfianza hacia el sistema. LUM e ISAAC (22) no dudan de que realmente exista la predictividad policial aunque concluyen que «lo que realmente se predice es el control policial futuro y no el de los delitos que se cometerán en el futuro» (23) .

La herramienta predictiva puede servir para esclarecer hechos pasados pero es un efecto colateral. La esencia de la herramienta es mirar siempre al futuro, buscando ir un paso por delante, de forma que donde un criminal espera cometer un delito con facilidad esté un policía esperándole. Como afirma BACHNER (24) «la predicción se centra en lo que es probable que ocurra y no en lo que ya ha ocurrido».

La revolución que supone la policía predictiva parte de superar un modelo policial reactivo, que sólo actúa a posteriori centrándose en lo que ha pasado, para transitar a un sistema preventivo en el que se persigue despejar las sombras del futuro. En este sentido, GONZÁLEZ-ÁLVAREZ et al (25) indican que la policía predictiva supone un paradigma que ha permitido cambiar un enfoque reactivo por otro de prevención. Así es, el empleo de sistemas tecnológicos por el crimen organizado (26) , exige abrir un frente algorítmico para combatirlo. La inseguridad que el criminal puede sentir al saber que una maquina ha dado su nombre o ha dicho donde volverá a actuar, obligándole a ser más cauto, es un valor relevante en la lucha contra el crimen.

Programa aplicado por la policía que somete un elevado número de datos pasados al juicio de un algoritmo que llega a una conclusión

Recopilando estos elementos, la policía predictiva puede definirse como un programa aplicado por la policía que somete un elevado número de datos pasados al juicio de un algoritmo que llega a una conclusión sobre quien es o puede ser un criminal y donde desarrollará en el futuro una actividad delictiva. La estadística, la criminología ambiental y el algoritmo forman un equipo que busca hacer visible el futuro.

La policía predictiva forma parte de la actividad de inteligencia policial al ser algo esencial a ambas actividades el relacionar hechos delictivos actuales con otros pasados y sacar conclusiones (27) . El inspector de policía que investiga un delito y a modo de dejavú considera que lo que ha ocurrido ya lo ha visto en el pasado, despliega la misma actividad que el algoritmo, si bien este último da un paso más adelante al situar espacio-temporalmente un delito en el futuro. La predicción no es algo distinto de lo que los policías han llevado a cabo con el arma de su intuición. Como expone NÓHPAL RODRIGUEZ (28) los policías de antaño refieren que el método de la policía predictiva no les resulta ajeno, debido a que, con las limitaciones en sus recursos, usaban métodos con similitudes tiempo atrás.

III. Diferencias con figuras afines

La proacción policial que deriva de la predicción no es una investigación prospectiva. Esta última interfiere derechos de forma indiscriminada y en la más completa oscuridad y desconocimiento de lo que busca. En la policía predictiva se cuenta con un referente para actuar, la luz del algoritmo, aunque sea limitado y esté acompañado de vacilaciones y posibles cortocircuitos. Es un patrullaje intermedio entre el físico y el virtual que representa el ciberpatrullaje. Es una vigilancia física ordenada, inducida o recomendada por la máquina, ajena a una investigación prospectiva (29) .

La actividad de predicción no se confunde con la actividad de vigilancia por cámara. La línea divisoria, indica SOUTHERLAND (30) reside en que «las predictivas intentan predecir un acontecimiento o resultado concreto, y las de vigilancia, se utilizan para controlar personas, lugares y cosas» (31) .

La policía predictiva se diferencia de la justicia predictiva de la misma clase (32) en que en la primera la información generada y la decisión adoptada es obra de la policía, y no tiene como propósito o al menos como objetivo prioritario generar decisiones jurídicamente vinculantes o pruebas (33) . La intención policial es bajar las cifras de delitos mediante un efecto disuasorio. Sus objetivos y campo de actuación difieren asimismo de forma sustancial de la legislación predictiva (34) .

IV. La policía predictiva en Estados Unidos

1. La predicción cartográfica-geográfica

A) Concepto

Un primer modelo predictivo detecta los lugares identificados como de alto riesgo (35) , lo que permite distribuir los recursos personales y materiales para reducir la cadencia delictiva. Se realizan mapas digitales de crímenes (36) que acotan los sitios probables de reincidencia. MUTSAERS y NUENEN (37) definen este sistema como una «criminología del lugar», un método de minería de datos que se utiliza para predecir delitos de alto impacto en el espacio y en el tiempo y para asignar mano de obra con el fin de evitar que se produzcan estos delitos.

La corporación VINFOPOL (38) expone que se utilizan datos de incidentes criminales anteriores, procedentes de distintas fuentes informativas, que se superponen en un mapa para crear un «patrón de calor» que indica las áreas de alta actividad delictiva. Distintos colores para diferentes densidades de delitos. Estos mapas de calor digitales ayudan a la policía a identificar áreas peligrosas. Por ejemplo, si un mapa de calor muestra una alta concentración de robos de automóviles en una zona determinada, la policía puede enfocar sus esfuerzos en esa zona para disuadir a los delincuentes y realizar patrullajes de manera más frecuente.

Las zonas delimitadas pueden ser barrios completos o determinados edificios o manzanas. Cuanto más pequeño sea el punto caliente, más perfeccionado y eficaz es el modelo para permitir a los responsables policiales desplegar adecuadamente a los agentes en zonas potencialmente problemáticas. El sistema cartográfico-geográfico parte de los delitos cometidos pero aborda una cascada de hechos que giran en torno a aquellos factores que convierten a un sitio en un escenario cómodo para el criminal (39) . El modelo valora los aspectos urbanísticos que incluyen el tipo de arquitectura, la presencia de espacios abiertos, de una arquitectura hostil que haga las calles solitarias, de cámaras y de suficiente iluminación. A ello se une la constancia de hechos no criminales pero que se consideran la antesala de acciones delictivas (40) , personas en situación irregular, consumo de alcohol, drogas y la presencia de ruido.

Dentro del mapa predictivo, es de interés la ambiciosa fijación de microobjetivos en barrios grandes en los términos que describen UCHIDA et al (41) «Se trata de zonas pequeñas y discretas (por ejemplo, de seis a diez manzanas cuadradas) en las que florecen los problemas, pero también en las que podrían mejorar la eficacia colectiva y la cohesión social. Así, a partir de la información recogida en las encuestas a los residentes, pueden localizarse a los residentes que estaban dispuestos a intervenir o a invertir en el barrio. Además, estos mapas identifican zonas dentro de estos barrios donde hay déficits de eficacia colectiva y cohesión social».

B) Origen

La estadística alimentada con datos como herramienta de fijación de patrones, presupuesto con el que alimentar sistemas predictivos, es previa a la creación de los sistemas informáticos (42) . SCHUILENBURG y SOUDIJN (43) ubican en el siglo XIX el comienzo de la mejora de la actuación policial mediante el uso de datos y estadísticas. Los datos se procesaron mediante tecnologías estadísticas para descubrir patrones subyacentes en el tiempo y en el espacio. Es en el siglo XX, cuando el Gobierno Federal, desde 1900, y bajo la autoridad de la Oficina Federal de Investigación (FBI), desde 1930, recopila datos sobre delitos cometidos a nivel nacional, elaborando estadísticas precisas.

El sistema predictivo tiene una buena recepción en los años 20 bajo los postulados de la «criminología ambiental» de la Escuela de Chicago (44) que, como expone FERGUSON (45) , se centraba en la «geografía de la delincuencia». La idea era identificar y cartografiar las pautas de comportamiento delictivo para informar a las fuerzas policiales. Los departamentos contrataron analistas delincuenciales para sintetizar los datos sobre delincuencia y ayudar así a desplegar los limitados recursos policiales.

Uno de los programas pioneros cartográficos desarrollado por un incipiente sistema informático, fue el de Compstat, establecido en el año 1995 en el Departamento de Policía de Nueva York (46) . Permitía a los mandos policiales examinar las estadísticas de delitos denunciados y aplicar medidas coercitivas específicas para reducir la delincuencia, éxito que se medía por los índices de detenciones. El programa se centró en los delitos contra la propiedad (47) , por ser los que más preocupación generaban en los ciudadanos, se denunciaban y, por lo tanto, se podían medir. Se adoptó la noción criminológica de que el delito es un «virus» que tiende a expandirse porque el entorno lo fomenta y a cometerse por las mismas personas. Con ello podían establecerse zonas de criminalidad geográficamente precisas (48) . La policía recibía mapas de esas zonas e instrucciones para visitarlas con la mayor frecuencia posible mientras patrullaba. El segundo reto fue extenderlo a los delitos violentos. El motor en que se inspiró el cambio fue la teoría de que la delincuencia violenta es el producto de unas condiciones ambientales concretas como un callejón poco iluminado, la proximidad de víctimas potenciales y las disputas entre bandas por el control de determinadas zonas (49) . La filosofía de Compstat, manifiesta BACHNER (50) basada en la relación entre las características del entorno y la incidencia de la delincuencia, fue extendiéndose fuera de los límites de Nueva York.

Compstat es el predecesor de Predpol, aplicado por el Departamento de Policía de Los Ángeles en el año 2010 y seguido actualmente por numerosos departamentos de policía norteamericanos. Dicho programa parte de la lógica de predicción de terremotos basada en un algoritmo elaborado por el sismólogo francés Marsan. BENNET MOSES y CHAN (51) explican que los diseñadores de Predpol conciben delitos como el robo en viviendas o la violencia de bandas como procesos puntuales autoexcitados, similares a las réplicas de los movimientos sísmicos. Un terremoto o un delito pueden ser la «back ground», réplica de otro terremoto o delito cercano en el espacio y el tiempo.

C) Críticas

La doctrina estadounidense se ha mostrado crítica con los modelos predictivos policiales, tanto en los cimientos sobre los que se construyen como en su eficacia, lastrada, entre otros factores, por la ausencia de estadísticas fiables sobre su resultado, y una clandestinidad sobre el funcionamiento del programa que ha cristalizado en sospechas sobre el empleo de datos sesgados basados en la raza u otras circunstancias discriminatorias. Examinaremos dichos reproches.

a) Eficacia incierta

Se ha alegado que el cimiento del modelo predictivo es erróneo en su fundamento de base por partir de pautas de la naturaleza no aplicables al ser humano. Matemáticos y sismólogos dedicados a construir un sistema predictivo aplicando ciencias del terreno es una combinación que difícilmente valorara el libre albedrio y la capacidad del ser humano de cambiar el futuro. Un criminal no es un cataclismo natural y no está atrapado en un determinismo climático. Si actúa es porque se siente cómodo y seguro en ese espacio concreto para desplegar su actividad criminal. Su motor será la desesperación o el equilibrio entre el coste y el beneficio. El ser humano, a diferencia del terremoto que es inmune a la acción humana, puede reaccionar a la intervención policial y adaptarse buscando reducir su grado de predecibilidad. BENBOUZID (52) señala como se puso en contacto con el sismólogo francés que diseñó el algoritmo y le dio datos del sistema predictivo aplicado en Chicago y este fue cauto a la hora de evaluar la capacidad de su algoritmo para predecir la delincuencia. Los estudios policiales sobre el sistema (53) contrastan con la ausencia de un cuerpo suficiente de estudios independientes (54) que avalen su éxito, debiendo valorarse también que hay factores difíciles de medir (55) y que no debe confundirse la satisfacción de los aplicadores policiales con que realmente el modelo funcione (56) .

b) Datos incompletos y erróneos

Se advierte que los algoritmos de los sistemas predictivos operan con datos sesgados e inexactos sobre la criminalidad real. Únicamente la punta del iceberg representada por los delitos que se llegan a denunciar acceden al programa, habiendo un elevado número que permanecen en la clandestinidad. LÓPEZ RIVA (57) indica que al computar solo las denuncias hay una cifra oscura en delitos cometidos y no denunciados. La predicción de hechos futuros, sostiene, se basa en datos sesgados del pasado (58) . A ello se añade la posible calificación errónea del delito que alcanza su rango máximo cuando se incluyen conductas atípicas (59) y la exclusión que se realiza de determinados crimines como los denominados «de cuello blanco» (60) . Entiendo que tales problemas son reales, pero no decisivos en el marco de sistemas predictivos que no aspiran a desplegar una lucha global contra todas las formas de delincuencia, ni contra crímenes específicos que requieren investigaciones especializadas. Al centrarse sólo en determinados delitos, el lugar de comisión del delito que refieren las denuncias, es un referente mínimo válido para calibrar la criminalidad aproximada existente en una determinada zona.

Otro problema al que apunta LIGETI (61) ligado a la eficacia es si la policía predictiva no es de hecho contraproducente dado que, los algoritmos pueden llevar a patrullar zonas propensas a la delincuencia y las demás pueden desatenderse.

c) Datos sucios con sesgo

Los sistemas predictivos aspiran a superar la «debilidad» humana, a pronosticar ajenos a cualquier prejuicio o sesgo racial, étnico o religioso que puede influir en la decisión de un humano. Dotado el algoritmo en un aura de pureza y superioridad moral, las corporaciones, que se amparan en el secreto comercial para no dar detalles sobre el funcionamiento de sus sistemas, sí son explícitas a la hora de negar cualquier sesgo racista ya que no incluyen en sus programas la raza como dato expreso. Así SOUTHERLAND (62) afirma que las corporaciones que han creado programas predictivos «se han esforzado por limpiar sus productos de la mancha del racismo. En algunos casos, lo han hecho basándose en puntos de datos que no dependen explícitamente de la raza, pero que se correlacionan con ella, como el código postal o la situación económica de un lugar concreto. Estos esfuerzos hacen que la relación entre datos y previsiones racialmente contaminadas parezcan a primera vista, más un riesgo importante que una realidad irrefutable». LUM e ISAAC (63) exponen que Predpol se califica como «un sistema neutral desde el punto de vista racial que utiliza sólo tres datos para hacer predicciones: el tipo de delito, el lugar y la hora del delito y no utiliza información personal sobre individuos o grupos de individuos».

Quien alimenta el sistema, transmite sus debilidades, miedos y odios

El problema surge cuando el prejuicio que se pretende superar puede invadir el algoritmo desde su origen, porque los datos que alimentan el sistema son creados por seres humanos con sus sesgos, animadversiones y desprecios, lo que eleva notablemente la posibilidad de introducir datos sucios basados en interpretaciones discrecionales de la policía. Quien alimenta el sistema, transmite sus debilidades, miedos y odios. Como indica MIRÓ LLINARES (64) «…lo que sabemos hasta el momento nos dice que los algoritmos, que reflejan con precisión nuestro mundo, parecen reflejar también nuestros prejuicios».. También BRAYNE et.al (65) consideran que incluso con las mejores intenciones, la toma de decisiones algorítmicas puede dar lugar a prácticas y resultados discriminatorios y reproducir los patrones de discriminación existentes, heredar los prejuicios de los responsables de la toma de decisiones anteriores, o simplemente reflejar los prejuicios generalizados que persisten en la sociedad. Incluso puede tener el resultado perverso de exacerbar desigualdades existentes al sugerir que los grupos históricamente desfavorecidos merecen en realidad un trato menos favorable.

Los sistemas predictivos estadounidenses se alimentan de datos históricos obtenidos por la policía que no han superado un filtro de calidad. Lo explican con precisión RICHARDSON et al (66) cuando afirman que los datos no son objetivos al estar impregnados de sesgos políticos, sociales y ser un reflejo de las prácticas y prioridades del departamento, de los intereses locales, estatales o federales. La falta de trasparencia sobre como tratan los proveedores los datos sobre detenciones y llamadas de servicio es total. Los autores mantienen que la propia palabra dato «es errónea ya que supone algún tipo de medición o enfoque científico coherente, no existiendo en la práctica policial procedimientos o métodos normalizados para la recopilación, evaluación y utilización de la información recabada en el curso de las actividades policiales, con lo que la subjetividad del agente tiene un margen importante a la hora de decidir lo que graba sobre sus actividades» (67) . La objetividad del algoritmo, como indica la corporación VINFOPOL (68) exige la inclusión de una amplia variedad de fuentes y perspectivas en la programación del sistema.

Los estudios sobre los resultados muestran la presencia de sesgos raciales y discriminatorios. LUM e ISAAC (69) indican que «La utilización del programa Predpol en la ciudad de Oakland reveló que la población negra se vio sometida a una vigilancia policial predictiva el doble aproximadamente que la población blanca. Las personas clasificadas como de raza distinta a la blanca o a la negra serían objeto de vigilancia policial específica en una proporción 1,5 veces superior a la de los blancos. Esto contrasta con el patrón estimado de consumo de drogas por razas, que es equivalente en todas las clasificaciones raciales. Los autores encontraron resultados similares de sobrevigilancia sobre personas de escasos recursos».

La doctrina ha manifestado que los riesgos de sesgo no nacen exclusivamente de un pecado original del sistema al incorporar datos directamente sucios sino que pueden producirse por varias vías alternativas. Ello puede ocurrir por:

A.- Las llamadas de servicio: Exponen RICHARDSON et al (70) que al igual que las detenciones, las llamadas para prestar servicios también pueden obedecer, de forma más sutil a un sesgo racial.

Efectivamente, este concepto es una fuente muy amplia de discrecionalidad. Una llamada para intervenir puede obedecer a falsas alarmas o a hechos que aún de cierta relevancia, no dan lugar a detenciones pero pueden ser el anuncio de delitos futuros. Los agentes deben tener instrucciones claras sobre los datos que deben aportar para alimentar el sistema, debiendo eliminarse lo que sean meras «señales de humos».

B.- El empleo de variables indirectas: En este sentido SAPHIRO (71) señala como en Estados Unidos, la raza está estrechamente relacionada con el nivel socioeconómico y la localización geográfica por lo que «es imposible controlar totalmente los efectos indirectos en los datos».

Sí, pero entiendo que dado que el algoritmo no conoce que hay un factor racial detrás de la localización geográfica o el nivel socioeconómico, no adquiere un prejuicio racial que es donde está la perversión del sistema y, por tanto, no hay un factor discriminatorio.

C.- El aprendizaje del sistema: Asimismo, el programa en su desarrollo y a través de un proceso de aprendizaje puede llegar a adquirir prejuicios. Como afirma SUAREZ XAVIER (72) al sistema lo entrena un experto humano pero el propio algoritmo puede establecer inferencias lógicas con fundamento en las bases de datos.

Ahora bien, considero que una supervisión humana especializada tiene la oportunidad de determinar si el sistema se ha corrompido y desviado asumiendo argumentos racistas (73) .

Los algoritmos discriminatorios pueden dar lugar a acciones policiales que generan tensiones y problemas de criminalidad y alteración del orden público que no existían con anterioridad. Así, SOUTHERLAND (74) advierte que con «un mayor número de interacciones entre la población negra y la policía la hace más vulnerable a la violencia a manos de las fuerzas del orden; aumenta la probabilidad de detención; y fomenta una probable implicación del individuo en el sistema jurídico penal, al elevarse las tasas de detención y encarcelamiento. La exposición repetida a la policía tiende… a aumentar las "inseguridades que producen violencia" que los agentes experimentan durante los encuentros». Los encuentros injustificados con la policía llevan a cuestionar su legitimidad y a resistirse a la misma (75) .

La disyuntiva es clara ¿Debe excluirse el factor racial como elemento de segregación histórica de cualquier sistema predictivo, so riesgo de excluir la eficiencia del sistema? La respuesta debe ser afirmativa. La raza no debe incluirse en el algoritmo aunque disminuya la eficacia de este último. El precio a pagar, el estigma y el odio, es inasumible para un Estado de Derecho (76) .

D) Actuaciones

La respuesta cuasi monopolística ante una zona caliente es el patrullaje policial y la identificación, lo que puede ofrecer resultados tácticos rápidos pero no asegura los estratégicos. BENNET MOSES y CHAN (77) indican que «si bien en jurisdicciones como Dallas se están celebrando reuniones vecinales en los puntos conflictivos pronosticados, los programas de vigilancia predictiva consisten principalmente en movilizar patrullas policiales hacia manzanas concretas... En los casos en los que el despliegue policial es la principal respuesta, incluso una reducción demostrada de los índices de delincuencia no implica que la policía pueda hacer frente a la delincuencia en el futuro».

El patrullaje puede ser invasivo a través de identificaciones sistemáticas que pueden concluir con facilidad en tensiones. Puede adoptar meramente un rol presencial para articular un efecto disuasorio que tampoco va a reforzar la confianza de la comunidad. Para no limitarse a vencer en una batalla perdiendo la guerra, son precisas soluciones holísticas (78) y un cambio de mentalidad policial. Se ha indicado que la opción por un sistema de policía preventiva supone un compromiso de superar un patrullaje policial indiscriminado. VAN BRAKEL (79) alude a una nueva profesionalidad policial que exprese los valores de participación, atención compasión y empatía en su trabajo, tanto a nivel de gestión como de calle. Propone una vigilancia algorítmica democrática que supere la «espiral de desesperación» siguiendo el modelo de «policía tutelar» de Nueva York. Aboga por comisiones policiales que deberán en todo momento recabar y tener en cuenta las opiniones de todas las personas y grupos sociales que puedan verse implicados.

2. Sistemas subjetivos o «de lista»

A) Concepto

Estos modelos predictivos trascienden del terreno y sus factores ambientales para centrarse en la persona. Tienen como objetivo predecir quien será un criminal por ajustarse a un perfil previamente establecido y quien ocupará el rol de víctima. MANSUR (80) señala que es un sistema de previsión basado en la persona (81) , que trata de calibrar la probabilidad de que un individuo esté implicado en actividades delictivas, ya sea como autor o como víctima, mediante el análisis de su actividad delictiva o sus interacciones con la policía. Para GONZÁLEZ-ÁLVAREZ (82) et al esta dimensión tiene por objeto predecir la probabilidad de que un individuo concreto cometa un delito, las características que con más probabilidad acompañan a quien lo ha cometido y el riesgo que tiene una persona de convertirse en víctima.

B) Orígenes

La predictividad policial subjetiva y su proporcionalidad bajo el prisma de la inteligencia humana se produce cuando una patrulla policial detiene a un sospechoso para interrogarle o cachearle (83) . Ya en los años 60, la jurisdicción norteamericana (84) confirmó que la policía puede dirigir el arresto e interrogatorio de un individuo cuando tiene sospechas razonables de que existe una actividad delictiva. Si considera que está armado y es peligroso, el agente está habilitado para llevar a cabo un interrogatorio limitado a la búsqueda de armas. Debe permitirse al policía una búsqueda razonable de armas en su protección y la de terceros, cuando tiene razones para creer que está tratando con una persona armada y peligrosa o cuando dispone de una causa probable de arresto por ser el responsable de cometer un delito. No se precisa la seguridad de que esté armado sino la creencia que tiene un hombre razonablemente prudente de que el cacheo se encuentra justificado porque su seguridad o la de terceros está en peligro.

La predictividad que se centra en las personas es el tercer hito que alcanza el modelo predictivo tras asentarse, como vimos, primero en patrones de un modelo-terreno centrado en los delitos contra la propiedad y desplegarse posteriormente sobre los crímenes violentos. Dirigir la mirada a individuos concretos y encasillarlos en listas de sospechosos, fue la siguiente decisión.

El pionero y más relevante programa de predictividad subjetiva fue la Strategic Subject List (SSL) (85) elaborada en el año 2012 por el Instituto de Tecnología de Illinois (86) , adoptado por la Policía de Chicago desde el año 2012. Ya en el año 2017, el conjunto de datos incluía a 398.684 personas. RICHARDSON et al (87) lo describen como una herramienta de evaluación computarizada que incorpora numerosas fuentes de información para analizar el crimen, así como identificar y clasificar a las personas en riesgo de convertirse en una víctima o posible agresor en un tiroteo u homicidio. Posteriormente, el Departamento de Policía de Nueva Orleans comenzó a aplicar en el año 2012 un programa de SSL que donó la corporación Valantair (88) . Asimismo, una actuación policial predictiva basada en las personas dio lugar en la ciudad de los Ángeles al Programa de Delincuentes Crónicos (2011-2019) (89) . El mismo, exponen HUNG y YEN (90) , identificaba a «probables delincuentes» basándose en un sistema de puntos que recogía los antecedentes penales, las detenciones, la afiliación a bandas, si se encontraban en libertad condicional y los contactos con la policía. Si a uno le paraba la policía o le llamaban a la puerta, por ejemplo, podía tener más puntos. Los boletines policiales presentaban a los peores «probables delincuentes» —aquellos con más puntos— con fotos y descripciones físicas, y se colgaban en la sala de pase de lista de la comisaria, distribuyéndose entre los agentes al pasar lista y cargándose en los ordenadores portátiles de los patrulleros. Aunque los agentes no podían detener a una persona basándose en esta información, tenían instrucciones de recabar durante sus patrullas rutinarias información sobre estos potenciales infractores crónicos

C) Fundamento

En lugar de concebir la acción criminal como un terremoto o centrarse en los factores ambientales, el SSL comprueba la reincidencia y verifica mediante el examen de sus redes sociales si el individuo está con «malas compañías» (91) . SOUTHERLAND (92) afirma que los sistemas fundados en las personas se basan en la noción de que «las redes sociales negativas... pueden fomentar la actividad delictiva». Se parte de la base criminológica de que el riesgo elevado de ser víctima o autor de un delito violento «… puede trazarse como una red social que debe ser localizada, marcada y vigilada».

Valora positivamente el sistema BUENO DE MATA (93) que destaca la gran utilidad de los programas que analizan el comportamiento en internet de personas vinculadas a delitos como el terrorismo o la trata, al poder hacerse un mapeo de su comportamiento en redes sociales, foros o blogs generando así un «retrato robot virtual» o «perfil criminal» concreto de personas que tengan un potencial grado de peligrosidad (94) . Más críticos se muestran autores que alertan sobre las consecuencias desproporcionadas de dichas búsquedas. Alegan que la doctrina de «la sospecha razonable», que otorga un argumento jurídico racional consolidado judicialmente, pasa a ser desplazada por la dictadura de los grandes datos. Así, LUM e ISAAC (95) consideran que podría producirse una violación flagrante de la Cuarta Enmienda (96) mediante el uso de las redes sociales por parte de las fuerzas de seguridad para vigilar los contactos de delincuentes conocidos. Eso podría abrir fácilmente la puerta a una red aún mayor de personas vigiladas que en realidad no han cometido ningún delito, pero que las fuerzas del orden consideran culpables por asociación. ¿Con qué frecuencia hacemos «amigos» o «seguimos» a personas cuyo pasado es un misterio para nosotros?».

No comparto el criterio. Aunque el seguimiento sistemático de los contactos y redes sociales del sujeto no es un patrullaje sino una vigilancia, no existe una expectativa razonable de privacidad de quienes actúan en canales abiertos de comunicación. Asimismo, tal vigilancia, aunque genere una detención, superaría para los jueces norteamericanos el test de «sospecha razonable» que protege la Cuarta Enmienda (97) .

FERGUSON (98) indica que los tribunales deben considerar que «hay un problema aparte cuando se permite que las fuerzas del orden controlen todos los factores que conforman la sospecha razonable, lo que ocurre cuando la policía crea perfiles o alega una sospecha razonable porque alguien está presente en una zona de alta criminalidad. Permitir tal influencia de la policía predictiva sin mecanismos de rendición de cuentas sobre los datos y el análisis, y sin plena transparencia, puede dar lugar a una preocupante falta de protección de las personas que acaban en las zonas pronosticadas».

Asimismo, el autor considera que el algoritmo puede perjudicar a la policía en casos en que puede haber una sospecha razonable. Pone el ejemplo de unos policías que vigilan un bloque de viviendas marcadas por el algoritmo como un lugar donde se va a cometer un delito de robo. Están un tiempo prudencial, no ocurre nada, y los policías se marchan. A dos manzanas, ven a un joven con un destornillador cerca de un coche aparcado. La detención, considera, no sería válida. Aunque la policía exterioriza de forma objetiva una preocupación razonable por los robos de coches en la zona en general, la realidad es que la predicción no cubre el bloque en que se ha llevado a cabo la detención «No es una micro-zona de mayor delincuencia. El hombre no encaja en el modelo «perfil más actividad». El «chivatazo» es para una zona equivocada». Concluye afirmando que el modelo predictivo juega contra los agentes a efectos de la Cuarta Enmienda ya que «el paso de una zona prevista de a una zona genérica e indefinida de alta criminalidad puede debilitar la justificación». No comparto el criterio. Aunque la predicción no apoye la sospecha razonable, la posesión de un destornillador y su «merodeo» cerca de coches justifica la detención.

D) Errores y sesgos

Un error básico del sistema es incluir y tildar de «peligrosos» a personas pacíficas que no han tenido nunca problemas graves con la comunidad. RICHARDSON et al (99) indican que un análisis independiente realizado por Upturn y el New York Times reveló que más de un tercio de las personas incluidas en la SSL de Chicago nunca habían sido detenidas ni víctimas de un delito, y casi el setenta por ciento de ese grupo obtuvo una puntuación de alto riesgo. Los sesgos raciales están también presente ya que el cincuenta y seis por ciento de los hombres negros menores de treinta años de Chicago tenían una puntuación de riesgo, el mismo colectivo objetivo de prácticas abusivas históricas por parte del Departamento (100) . En esta misma línea BARONA VILAR (101) califica a estos sistemas de SSL como altamente peligrosos ya que son ingrediente del odio y la xenofobia integrando «el látigo de la segregación».

En Los Ángeles, señalan HUNG y YEN (102) que la auditoria de la Oficina del Inspector reveló que el programa predictivo del LAPD se había llenado de incoherencias: el 44% de los que tenían una puntuación elevada figuraban con cero o una detención por delitos violentos; aproximadamente la mitad no tenía ninguna detención por delitos relacionados con armas, y otros estaban bajo custodia o habían sido detenidos solo por delitos no violentos. A ello se unía la elevada composición racial/étnica de los delincuentes crónicos en las listas de puntos altos del sistema a fecha de agosto de 2018. Destacan los autores como la crítica contra el programa puso de manifiesto que se generaba un bucle de retroalimentación ya que un individuo con un valor de puntos elevado tiene más probabilidades de estar sometido a una mayor vigilancia y , por tanto detenciones, aumentando, aún más el valor de puntos del individuo. Asimismo, una investigación (103) recogía encuestas entre ciudadanos afectados, encontrando que el 71% de los participantes encuestados informaron sentir que ellos o su comunidad son «perfilados, abusados, señalados o acosados», por la policía. Ser detenido por la policía y la sensación de ser «vigilado» (104) tiene varias implicaciones psicológicas.

Detectar sesgos raciales es una labor complicada. Como indican AGUIRRE et al (105) ello requiere profundos conocimientos de estadística, matemáticas y programación. La mayoría de las tecnologías policiales precisan la adopción de un enfoque global que «no sólo depende de un liderazgo institucional… sino también del desarrollo de normas mínimas de auditoría y evaluación responsables».

E) Resultados

Los resultados del programa no son concluyentes sobre su efectividad. SOUTHERLAND (106) señaló que tras aplicar un sistema de SSL de personas con riesgo de verse implicados en actos de violencia con el uso de armas de fuego, la ciudad de Nueva Orleans experimentó un acusado descenso de su tasa de homicidios pero no redujo la violencia armada, a pesar de que el número de personas de la lista se triplico en tres años. Tampoco los estudios realizados sobre el sistema de SSL de Chicago han apreciado descenso notable del número de homicidios (107) .

F) Actuaciones

La finalidad es disuadir a las personas peligrosas de cometer delitos en un futuro y ello se logra a través de un amplio elenco de medidas que van desde la visita disuasoria a los arrestos. RICHARDSON et al (108) exponen que una directiva interna del CPD y declaraciones públicas afirman que el SSL se utiliza para dirigirse a las personas como parte de un procedimiento de notificación personalizada, que tiene como finalidad intervenir contra la violencia en toda la ciudad. Sin embargo, la misma directiva del CPD también alienta a que se busquen «los cargos más altos posibles» para cualquier individuo incluido en la SSL que sea arrestado (109) .

3. Ausencia de trasparencia y sesgo tecnológico

En Estados Unidos los sistemas predictivos se han convertido en arcanos. Las empresas que desarrollan programas predictivos se escudan con frecuencia (110) en el secreto comercial para no revelar los criterios que se siguen en la elaboración del algoritmo y evitar que otras compañías puedan copiar el software. Ello determina que los sistemas predictivos siguen de forma mayoritaria un modelo de caja negra que no explica al público en general ni a los usuarios los argumentos y razonamientos detrás de la predicción, en particular por quienes deben aplicarlas. La no comprensión es una fuente de problemas ya que como afirman GONZÁLEZ-ÁLVAREZ et al (111) el policía puede ignorar el programa y sustituirlo por su experiencia o aplicarlo sin sentido, lo que impedirá crear una estrategia eficiente y revertirá en una pérdida de confianza.

La persona es un mero ejecutor de la decisión de la máquina

En Estados Unidos, a diferencia de Europa, en la mayoría de los sistemas predictivos no hay un coordinador o supervisor humano del programa. La persona es un mero ejecutor de la decisión de la máquina. El sistema es un refuerzo porque puede hacer cálculos más rápidos y completos, pero es la persona quien debe tener la plena autonomía para rechazar, confirmar o matizar la predicción. Ello redundará en la confianza e implantación del programa. Como indica BACHNER (112) si los agentes son formados en la herramienta y se la presenta como una adición a su capacidad, es más probable que la acepte.

La falta de información puede desembocar en un «sesgo de automatización» (113) que se produce cuando se considera que la maquina es perfecta. Explicar la policía predictiva hablando de terremotos puede no despertar un total crédito pero si nos remitimos a las matemáticas, en combinación con la informática, pensamos en algo difícil de comprender, pero infalible y sin prejuicios. Si el algoritmo emplea la raza lo hace sin odio, suspicacias, ni malas experiencias pasadas, sometiéndose únicamente a los imperativos de la lógica y la exactitud. La maldad humana queda purificada por la ciencia. Se combinan la convicción de estar ante la verdad objetiva con un aura mágica que conduce a la fe acrítica en el algoritmo.

La doctrina ha perfilado con precisión dicho sesgo. HAMILTON (114) afirma que el mismo lleva a la persona a despojar al algoritmo de cualquier posibilidad de cometer un error, coexistiendo un misticismo científico y una confianza que genera una fe desmedida en el sistema. CRAWFORD (115) nos habla de un «fundamentalismo en los datos» que lleva a concluir que un resultado es justo e inevitable por el simple hecho de haber sido producido por un ordenador (116) . La aceptación sin información puede derivar de no discutir lo que funciona. Como señala SOUTHERLAND (117) «a pesar de los daños que estas herramientas pueden producir en el mundo real, es difícil discutir el uso de la tecnología cuando el éxito se define como menos delincuencia, más casos resueltos y una mayor sensación de seguridad pública para algún segmento de la sociedad».

El Estado no puede funcionar como un compartimento estanco en un mundo cada vez más complejo y debe articular mecanismos de colaboración con corporaciones privadas pero estas no pueden camaleonizarse con el Gobierno para asumir sin ningún control constitucional actividades que inciden en derechos de los ciudadanos como es el de no ser detenidos arbitrariamente (118) . Una alianza corporación-administración debe evitar la ausencia de control público y que los intereses privados prevalezcan sobre los públicos. Para controlar es preciso comprender, siendo el presupuesto que la empresa informe de manera clara y completa.

La información deberá iniciarse describiendo la experiencia de quienes elaboran el programa y las variables que introduce el sistema. BENNET MOSES y CHAN (119) exponen que «cualquier herramienta analítica se centrará en un conjunto limitado, aunque amplio, de variables. Algunas se omitirán porque no se sabía de antemano que serían importantes para la predicción o porque son caras o difíciles de obtener. Es importante saber cuáles están y las que se han suprimido para ponderar la fiabilidad del programa» (120) .

Debe informarse sobre los pros y contras, las potencialidades y debilidades, concretar quien ha aportado el dato, cómo se asocia con otros, y la información que pueda quedarse en el camino hasta el momento en que llega a los ojos del analista o ejecutor de la decisión. La información debe incluir que se ha descartado cualquier dato que pueda dar lugar a sesgos racistas o discriminatorios de otra clase.

V. La policía predictiva en Europa

1. Francia

En Francia, la corporación IBM elaboró en el año 2005 para la Gendarmería Nacional el Analyst Notebook (i2AN) como herramienta en la lucha contra estructuras criminales y grupos terroristas. CINELLI y MANRIQUE (121) lo definen como un sistema predictivo que establece interconexiones entre personas y crímenes que a un analista humano le resultaría extremadamente difícil relacionar debido a la gran cantidad de información de la que dispone el programa. Por el contrario, KUBLER (122) considera que no es un programa de policía predictiva como tal ya que no señala donde y como se va a producir el delito ni pretende sustituir a la persona, siendo un analista humano el que decide el objetivo y la acción a seguir. Entiendo que sí es un sistema predictivo. Al relacionar el programa personas con delitos, sin anunciarlos expresamente, ya fija tácitamente un pronóstico de peligrosidad, adentrándose en el futuro.

2. Italia

En el año 2007, la polizia de Milán comenzó a aplicar el programa KeyCrime (123) . Sobre el modo en que funciona el programa, CINELLI y MANRIQUE (124) exponen que «imita a un cerebro humano manejando un millón y medio de variables procesadas por herramientas como las matemáticas, la estadística, la psicología comportamental y el análisis geoespacial». El software, conforme indica MASTROBUONI (125) «se utiliza para introducir y analizar grandes conjuntos de características individuales de los atracadores y estrategias delictivas individuales (modus operandi) recogidas por cámaras de seguridad de circuito cerrado e informes de víctimas para identificar atracos que comparten al menos un atracador o un vehículo (una secuencia de un grupo delictivo)». El programa crea correspondencias y establece una predicción que genera un informe escrito resumido que se comunica a la fiscalía.

El rol humano es clave. Un equipo especializado de la policía predictiva, recopila la información y alimenta el sistema con datos sobre el lugar y fecha del delito, características personales de los sospechosos que van desde la edad, la altura, el color de ojos o la ropa hasta si llevan tatuajes o piercings y el tipo de arma y vehículo empleado. El programa crea similitudes y zonas comunes entre los crímenes y fija una predicción sobre donde y cuando se cometerá el delito. Se elabora un informe resumido que se transmite a la policía y fiscalía. En lugar de patrullajes rutinarios se emplean agentes encubiertos que están a la espera de que se produzca el delito.

3. Países Bajos

En los países bajos se encuentra el CAS (126) , un programa predictivo diseñado en exclusiva en el año 2013 por la policía de Rotterdam y que posteriormente se extendió a todo el país (127) . Sigue un sistema de mapa espacio-temporal centrado en cuadriculas y se alimenta de datos de archivos policiales y administrativos (128) . Las zonas libres de delito están en blanco y el color va ganando en intensidad conforme crece la amenaza criminal, reservándose un color a cada delito. MUTSAERS y NUENEN (129) manifiestan que el programa actúa mediante redes neuronales y algoritmos evolutivos, utilizando la simulación de razonamiento inconsciente. El rol humano está muy presente. Los datos no hablan por sí solos sino que son interpretados por la policía. SCHUILENBURG y SOUDIJN (130) indican que cada unidad de policía incluye equipos de desarrollo de programadores y científicos de datos en la nube. El papel del responsable de datos consiste en utilizar las visualizaciones de CAS y enriquecerlas con su conocimiento contextual de la zona y su experiencia en delincuencia. Además, pueden añadir acontecimientos imprevisibles que no forman parte del CAS, como partidos de fútbol del equipo local de la ciudad o festivales de música, y determinar por sí mismos en qué medida influyen en la predicción.

Se reprocha al modelo potenciales sesgos raciales y discriminatorios. Así MUTSAERS y NUENEN (131) indican que el CAS señala exactamente a las mismas personas como sujetos de riesgo, es decir, a los jóvenes de sexo masculino y minorías étnicas procedentes de familias pobres, solo que esta vez la atención no se centra en los individuos, sino en sus zonas de residencia, visualizadas como celdas cuadriculadas (132) . Asimismo, SCHUILENBURG y SOUDIJN (133) advierten que con la intervención de los analistas, los posibles sesgos (personales) de los mismos pueden entrar en la ecuación. Destacan también los autores que el modelo de CAS califique como «sospechosos» a personas fichadas por estar implicadas en delitos anteriores que vivan o hayan vivido recientemente en un radio entre los 500 y 1000 metros del lugar en que se haya cometido el delito lo que «…es indicativo de la mentalidad de la policía predictiva en la que alguien es sospechoso antes de que se haya producido un (nuevo) delito». El calificativo compromete que alguien empiece de cero tras cumplir una condena y un sospechoso es alguien sobre el que existe una sospecha razonable de que ha cometido el delito por lo que nadie puede serlo antes de cometer el delito.

4. Alemania

Alemania rehúye llevar a cabo un seguidismo del sistema norteamericano y de ser comparado en la predicción policial con Minority Report (134) . Las SSL son líneas fronterizas que no se está dispuesto a cruzar (135) por lo que emplean técnicas tradicionales de policía predictiva geográfica y puntos calientes, coexistiendo programas como PRECOBS (136) , SKALA (137) y KIMPRO (138) . Los mismos se conciben como mecanismos de apoyo a la labor policial y no aspira a revolucionar su forma de trabajar.

Se parte de que el mismo tipo de crimen tiene unas altas probabilidades de repetirse en un futuro. El criminal, indican EGBERT y KRASMANN (139) , es un «buscador optimo» que volverá a delinquir cuando conoce las particularidades locales y puede calcular mejor el riesgo de ser capturado y las posibles ganancias del crimen (140) . En una fase de entrenamiento, Precobs, analiza el tipo de edificio en que se ha producido el robo (por ejemplo, casa unifamiliar o bloque de pisos), el modus operandi (por ejemplo, entrada por la ventana taladrando o con una maza) y los objetos robados (dinero, joyas, etc.). Detectados patrones comunes entre varios incidentes se lanza una alerta al operador humano.

La decisión final sobre como actuar recae siempre sobre un analista especializado que, sin ningún límite ni servilismo hacia la máquina, saca sus propias conclusiones. Ello supone una fuente de armonía para el sistema, evitando que el policía considere que es una maquina la que le envía a una zona de riesgo y al analista que es desplazado por un algoritmo. La decisión que se adopta es el patrullaje de las zonas conflictivas como medida especifica o incluir el lugar seleccionado por el algoritmo en la ruta de vuelta a comisaria (141) .

Sobre el sesgo de automatización, VEPŘEK et al (142) indican que el mensaje del político que propone el sistema se centra en cuatro frases: «El ordenador conoce realmente el futuro», «El ordenador lo hará todo por usted», «Necesita un modelo muy potente (y caro)», y «Las predicciones precisas conducen automáticamente a importantes reducciones de la delincuencia». Si bien, señalan los autores, el escepticismo llega cuando se concluye que el sistema no adivina el futuro sino que se limita a crear «porcentajes de probabilidad» (143) . Asimismo, una cosa es la realidad del sistema y otra como se «presente» al público. Tal y como MUTSAERS y NUENEN (144) indican «… estas expresiones computacionales de la incertidumbre se venden demasiado a menudo como objetividad». No existen apenas estudios independientes que validen su efectividad (145) sin que el descenso de la criminalidad pueda entenderse que es una prueba efectiva del éxito del modelo predictivo (146) .

5. Reino Unido

En Reino Unido el sistema estadounidense Predpol de mapa de puntos calientes fue aplicado por la Policía de Kent desde el año 2013 al 2019 (147) . MOHLER et al (148) compararon los sistemas predictivos empleados en Los Ángeles y Kent. El primero sigue un tradicional modelo policial Compstat, centrado en el tiempo y en el análisis de la delincuencia ocurrida durante los siete últimos días. La Policía de Kent seguía el programa Predpol pero con un enfoque basado en la inteligencia (149) . Con esta finalidad se fusiona información detallada a nivel individual, incidentes delictivos recientes y problemas conocidos de alto riesgo. Partiendo de que una eficaz labor de inteligencia evita dar una respuesta excesiva y desproporcionada a sucesos aleatorios, cuando se le encomendó al analista de Kent la tarea de colocar casillas de predicción, se basó principalmente en la información sobre determinados puntos (como el domicilio y el lugar de trabajo) de los delincuentes crónicos, que son responsables de una gran parte de los delitos graves, y sus socios conocidos. La agrupación territorial de las predicciones en Kent superó a los Ángeles por lo que las patrullas podían concentrarse más en la ciudad británica. La policía de Manchester desplegó su propio programa predictivo durante doce meses entre los años 2010 y 2011 bajo el modelo tradicional que predice donde volverán los criminales. A los mismos les esperarán, conforme señalan los responsables policiales, zonas de amortiguación del crimen y guardianes capaces para detenerlos (150) .

El sesgo de automaticidad adquiere un matiz peculiar en algunos responsables policiales británicos. No es tanto, profesar una fe evangélica como «uberizar» el servicio policial. SANDHU (151) señala como la respuesta de algunos entrevistados fue que el servicio de policía se «uberiza» evitando los desplazamientos largos e innecesarios. Los agentes tocan la pantalla, aceptan la tarea y la herramienta móvil les dirige al punto conflictivo. Ahora bien, señala el autor que existen resistencias que se pueden vencer mediante un sistema de incentivos (152) . Existe también la convicción de que «para este viaje no hacía falta alforjas» y que la predicción de la maquina arroja conclusiones muy básicas y claras que cualquier inteligencia humana puede detectar por sí sola (153) .

Sobre las sospechas de sesgo racial, nos encontramos nuevamente con los datos sucios, contaminados por conductas discriminatorias. Como expone un agente «..si introducimos datos pobres, tendremos resultados pobres. Así, sabemos que si detenemos y registramos desproporcionadamente a jóvenes negros por determinados tipos de delitos en una zona y utilizamos los datos de identificaciones, el sistema tratará desproporcionadamente a los jóvenes negros».

Particularmente polémico desde este punto de vista fue el sistema de SSL «Gang Matrix» aplicado por la Policía Metropolitana de Londres (154) que incluía en una lista a potenciales miembros de bandas. En el año 2018, la Oficina del Comisionado de Información (155) (OIC) publicó una Nota en la que se recogía la vulneración por el sistema de la Ley de Protección de Datos del 2018 así como del principio de igualdad conforme a la Ley de Igualdad del 2010. El dato era demoledor. El 82,3% de las personas en la Matriz eran BAME (156) , el 99% hombres y el 55,6% menores de 18 años. El sistema seguía un sistema de etiquetas. Las personas clasificadas en rojo eran las de mayor riesgo y recibían una intensa actividad diaria basada en un plan multiinstitucional de diferentes agencias. Al mismo tiempo se estudiaba solicitar una orden judicial de Comportamiento Criminal (157) . En el caso de las personas con distintivo ámbar, se elaboraba el mismo tipo de plan, pero más separado en el tiempo y no siempre se valora pedir la orden. Las personas con etiqueta verde eran destinatarios de actividades de «desvío o compromiso» dirigida por una sola agencia (158) .

El OIC recomendó a la matriz «una reevaluación exhaustiva de las personas con poco riesgo», reprochó que no explicara con claridad al público como funcionaba y que no existiera un procedimiento estandarizado de eliminación de datos, afirmando que una persona pacífica y de riesgo cero encasillada como bandera verde, genera un dato inexacto que debe ser suprimido.

En el año 2022, la Policía Metropolitana concibe la matriz como un modelo orientado a ayudar a los miembros de bandas que deseen salir de las mismas. Para ello se prevén programas de mentores, ayuda para la educación, el empleo, el realojamiento, etc., así como una participación vecinal mediante asociaciones locales que realizan reuniones y debaten cuestiones para alcanzar estos objetivos.

La policía de Durham utiliza el programa predictivo HART (159) que basa una predicción de reiteración criminal en características personales. Como señalan OSWALD, et al (160) , de los 34 valores predictivos, 29 proceden del historial delictivo del sospechoso. A ello se unen datos que el delincuente no puede cambiar como la edad y el sexo; combinándolas con la zona geográfica en que viven, se tiene en cuenta si las «casas son estrechas» y si los «empleos tienen una alta rotación». Se utiliza también el Código Postal que por protección de datos se extiende a cuatro dígitos, que abarca una zona geográfica muy amplia.

6. España

A) Sistemas predictivos cartográficos

La Policía Nacional diseñó en el 2015 una versión del Predictive Police Patrolling (P3-DSS) que procesó los crímenes cometidos en los años 2008 a 2012 en el Distrito Centro de Madrid (161) . Se creó así un mapa suficientemente pequeño de puntos calientes en el que distribuir eficazmente las patrullas (162) .

Una empresa privada española, la Corporacion EuroCop Security Systems, es la autora del programa predictivo EuroCop Pred-Crime (163) . GIMENO BEVIA (164) expone que este software ha sido comprado por ayuntamientos, sin publicidad clara sobre su alcance y objetivos y vincula el abandono de alguno de estos programas, como el del Ayuntamiento de Rivas Vaciamadrid (Madrid), a la falta de garantías o base legal para el uso de herramientas que surgen de un partenariado público-privado (165) .

B) Sistemas subjetivos

a) Sistema VioGen

El Sistema de Seguimiento Integral de los Casos de Violencia de Género (VioGen) es la principal herramienta predictiva que en nuestro país sigue un modelo de SSL (166) . El objetivo fundamental del programa es evaluar riesgos para impedir delitos y proteger a las víctimas (167) . La particularidad de este modelo predictivo es que puede contribuir a generar decisiones judiciales cautelares como el empleo de dispositivos de alejamiento, órdenes de protección o la prisión provisional de los investigados por Violencia de Género.

A. Concepto, funcionamiento y fines

El AAP de Málaga, sec. 8ª, n.o 505/2021 (LA LEY 368714/2021), de 4 de junio indica que el programa VioGen es «…un sistema informático del cual se obtiene la situación de riesgo tras el tratamiento por medio de algoritmos de un cuestionario o formulario que es contestado por la persona candidata a proteger» (168) . La finalidad es proteger a la víctima a través de diferentes caminos. Así, expone el AAP de Madrid secc. 27ª, n.o 145/2024, de 25 de enero (LA LEY 49428/2024) que mediante el sistema se conecta a instituciones públicas que tienen competencias en materia de violencia de género y se integra toda la información de interés, agilizando su intercambio. Con ello se facilita la valoración del nivel riesgo de sufrir nuevas agresiones, o una escalada en la gravedad o la frecuencia, ayudando también a que las víctimas adopten medidas de autoprotección. Sobre el funcionamiento del programa, la Sala señala que los datos que alimentan el sistema se someten a algoritmos con puntuaciones introducidas en lo relativo a cada uno de los indicadores de riesgo, devolviendo una valoración de riesgo en cinco niveles «No Apreciado», «Bajo», «Medio», «Alto» y «Extremo», que se comunican al Juzgado de Violencia sobre la Mujer y a la Fiscalía (169) .

Las defensas han alegado en ocasiones que el sistema es simplista porque valora únicamente las manifestaciones de la víctima a lo que responde la Audiencia de Madrid, secc. 26ª, en Auto n.o 1283/2022 de 5 de agosto (LA LEY 408036/2022) que el informe de VioGen «contiene y valora todos los extremos y circunstancias, aunque parta de la declaración de la denunciante» (170) . El AAP de Madrid, secc. 27ª, n.o 145/2024, de 25 de enero (LA LEY 49428/2024) pone de manifiesto que la información de VioGen deviene de una doble fuente «por una parte, declaraciones de la víctima» a lo que se añaden «declaraciones de testigos, registros oficiales, antecedentes policiales y registros accesibles para la policía, y por otra, de los propios hechos objeto de investigación» (171) , si bien el AAP de Málaga, sec. 8ª, n.o 505/2021 (LA LEY 368714/2021), de 4 de junio señala que el algoritmo solo interpreta las respuestas de la candidata a ser protegida.

Se ha llegado a combatir el funcionamiento del algoritmo aunque el mismo no haya presentado batalla. Así, en el caso resuelto por la AAP de Madrid, secc. 26ª, n.o 796/2024 (LA LEY 188523/2024), de 26 de abril, el abogado de la defensa manifestó que el programa no comprueba la veracidad de las respuestas facilitadas por la denunciante y que sólo estudia casos en que la víctima ha fallecido por lo que la muestra es escasa y debe manejarse con mucha precaución. La Sala indicó no comprender la extensión del recurso sobre este punto porque la Resolución recurrida no hacía mención alguna a VioGen a la hora de acordar la orden de protección que se basó declaración de la víctima y el dato objetivo que avalaba su versión consistente en la presencia de moratones.

B. Control humano

El algoritmo es supervisado parcialmente por el ser humano. Como afirma PRESNO LINERO (172) el sistema busca facilitar el trabajo diario a los agentes, asumiendo la importancia que tiene la experiencia profesional, como en cualquier profesión. Así, al final de cada valoración policial de riesgo, el sistema VioGen pregunta por la conformidad del agente con el resultado automático permitiendo que el usuario manifieste su desacuerdo y asigne el nivel de riesgo que él considera más apropiado, facilitando sus razones, permitiendo así el perfeccionamiento del sistema.

El agente sólo puede desautorizar a la máquina para elevar el riesgo y no para reducirlo. El AAP de Pontevedra, secc. 4ª, n.o 731/2022 (LA LEY 419102/2022), de 9 de diciembre, recuerda que el nivel de riesgo asignando de forma automática por el sistema de VioGen puede ser modificado al alza por los agentes si, a su juicio y atendiendo a indicios que no se reflejan en los indicadores de riesgo del formulario de valoración, consideran que resulta necesario para una mejor protección de la víctima (173) . La presencia de esta supervisión humana es valorada positivamente por el AAP de Cádiz, secc. 3ª, n.o 536/2021 (LA LEY 373094/2021), de 3 de noviembre al demostrar que la valoración VioGen no es resultado de la confección mecanicista de un formulario protocolario sino de la percepción personal de un evaluador, que hace constar en el atestado. En el presente caso, el informe policial indicaba que « ... se ha detectado una especial combinación de indicadores que apuntan a que los menores de edad a cargo de la víctima puedan encontrarse en una situación de especial vulnerabilidad».

La autodeterminación humana especializada frente al algoritmo debe ser completa

No comparto que se restrinja la intervención humana. La autodeterminación humana especializada frente al algoritmo debe ser completa. Si quien debe interpretar el mismo no está de acuerdo, debe tener la posibilidad de, motivadamente, separarse de cualquier decisión derivada de una maquina por inteligente que sea esta última.

Las restricciones interpretativas de los fiscales son más intensas todavía. La memoria de la Fiscalía del año 2024 (174) expone que la Fiscal de Sala de Violencia de Género se dirigió en el año 2023 a los fiscales delegados para que en los casos en que la Valoración de Riesgo Policial sea de riesgo «Extremo», «Alto» o «Medio de especial relevancia» se interese la instalación del dispositivo telemático de detección de proximidad, salvo que entendieran que procedía acordar la prisión provisional a fin de proteger a las víctimas. El margen de maniobra del fiscal se anula por completo. En las conclusiones de las jornadas de fiscales delegados de Violencia de Género se señala que cuando el sistema a la vista de la reiteración delictiva genera una diligencia automática de «agresor persistente», los fiscales deben tener en cuenta siempre esos antecedentes como un factor de riesgo grave, «con independencia del nivel del riesgo policial resultante de esas valoraciones». Por tanto, el fiscal debe atender al criterio del algoritmo incluso aunque el mismo no se confirme por el analista policial.

C. Trasparencia

Se reprocha al programa falta de trasparencia en cuestiones concretas. Reflexiona BORGES BLÁZQUEZ (175) que «disponemos de las preguntas que se hacen a VIOGEN, pero no del valor que se otorga a cada una». El AAP de Madrid secc. 27ª, n.o 145/2024, de 25 de enero (LA LEY 49428/2024) descarta cualquier opacidad «…la plataforma, en consecuencia, es pública, los algoritmos no son secretos, y sus resultados han de entenderse como producto del estudio continuado de expertos que trabajan en el desarrollo del sistema. Y tal información, sin necesidad de petición expresa, es acompañada en los atestados incoados en esta materia de Violencia de Género».

Con frecuencia (176) , las referencias sobre las que VioGen cimenta el riesgo están claras y se recogen en la Resolución judicial, como la agresividad, la ausencia de arrepentimiento (177) , la gravedad de los hechos con empleo de arma blanca, la presencia de hijos menores (178) y la reincidencia, entendiendo la misma en un sentido amplio que abarque tanto las denuncias de la víctima como las condenas penales (179) . El analista policial explica asimismo la intensidad del peligro que para la denunciante supone la calificación de VioGen. Así, el AAP de Madrid, secc. 27ª, n.o 1917/2023, de 22 de noviembre (LA LEY 397613/2023) refleja que el informe de Guardia Civil explica que «cuando en el sistema VIOGEN se genera un caso de especial relevancia significa que en el mismo se observan factores de riesgo que multiplican por ocho la probabilidad de reincidencia violenta con resultado de muerte para la víctima». También el AAP de Cádiz, secc. 3ª, n.o 446/2020 (LA LEY 302450/2020), de 21 de septiembre añade que el informe vioGen unido al atestado vincula a la calificación de «especial relevancia» que el riesgo puede ser extensible a terceros, concretamente a hijos menores.

D. Valor que se otorga a VioGen por la jurisdicción

De la sumisión de la Fiscalía a la máquina, en la valoración jurisdiccional encontramos dos posturas. Una posición minoritaria es de desconfianza como ocurre en el AAP de Málaga, sec.8ª, n.o 505/2021 (LA LEY 368714/2021), de 4 de junio para el que la situación de riesgo que establece VioGen es « siempre aproximada» y debe acogerse con «las naturales reservas» tras el tratamiento por medio de algoritmos de un cuestionario o formulario que es contestado por la persona candidata a proteger». El AAP de Málaga, secc. 8ª, n.o 339/2020 (LA LEY 303630/2020), de 4 de mayo indica que VioGen «… tiene escaso respaldo científico pues es el resultado de una aplicación informática».

En la mayoría de los casos, el sistema VioGen es un factor más a valorar con otros. Un ejemplo lo encontramos en un caso en que la Fiscalía de Madrid recurrió una decisión del Juez de Instrucción que denegó la prisión provisional. La Fiscal expuso que al desoírse por el Juez la predicción de «riesgo extremo» se dejaba «vacío de valor la inmensa y constatada labor desempeñada en el ámbito de medición del riesgo de las víctimas por parte de las Fuerzas y Cuerpos de Seguridad, e infravalorando la extensa labor de investigación científica que hay detrás del denominado «Sistema Viogen». La Secc. 27ª de la Audiencia de Madrid en Auto n.o 1620/2023 , de 4 de octubre (LA LEY 358345/2023) desestima el recurso y rechaza cualquier concepción monopolística de la máquina como prueba «Este sistema "algorítmico" en ningún caso puede sustituir el resultado de las diligencias de investigación que se practicadas a lo largo de la instrucción, por más que pueda reforzar la convicción alcanzada, pero que no puede sustituirla» (180) .

Desde esta perspectiva, puede considerarse que VioGen tiene un valor relativo, pudiendo no ser determinante, aunque los demás indicios confirmen su resultado (181) e incluso en aquellos casos en que el sistema no aprecie riesgo o estime que este es bajo, la valoración del conjunto de indicios puede llevar al órgano judicial a adoptar medida de protección (182) . No obstante, el algoritmo, ya sea para aceptarlo o rechazarlo, no debe ser ignorado en la ponderación judicial (183) .

b) Incendios forestales

La Guardia Civil y la Unidad Coordinadora de Medio Ambiente de la Fiscalía General del Estado han creado un programa SSL que elabora perfiles psico-sociológicos de responsables de incendios forestales (184) , con el objeto de obtener la máxima información posible sobre el mismo (185) . El sistema, establece dos sistemas de toma de datos. Uno de ellos y principal, consistente en un test que se realiza a todas las personas detenidas e investigadas por estos delitos. En función del resultado de dicho test se pasa a una segunda fase que es una entrevista entre el investigado/detenido y un miembro del gabinete psicológico de la Guardia Civil. Posteriormente las entrevistas se extienden a condenados y presos preventivos por estas causas en establecimientos penitenciarios.

El Fiscal, señala la memoria de la Fiscalía, se encarga de «la coordinación entre todas las Fuerzas y Cuerpos de Seguridad con competencias en la materia, tanto estatales como las dependientes de las Comunidades Autónomas, dando las instrucciones para que se realicen los test». Asimismo, lleva a cabo funciones de intermediación con las autoridades penitenciarias para que la Guardia Civil pueda entrevistar a los presos y perfila el aspecto jurídico de la entrevista, estableciendo que las mismas son voluntarias y ajenas al proceso penal. No consta que ninguna cuestión relacionada con dicho sistema predictivo haya llegado a los tribunales.

VI. Predictividad y protección de datos personales

Los sistemas predictivos recopilan y procesan numerosos datos personales. Generan así un microcosmos en que coexisten los datos más variados que identifican a la persona (186) . SCHLEHAHN (187) alerta que el enfoque «de buscar una aguja en un pajar» tiene el riesgo de integrar en el sistema un exceso de información que desemboque en «un pajar de datos» que atente a la privacidad. Al argumento de «si no se hace nada mal, no hay nada que ocultar» puede oponerse que «si no tienes nada que ocultar, no tienes vida» lo que incluye, el derecho del ciudadano a controlar la difusión y depósito de información que esté fuera de contexto, distorsionada o que sin ser delictiva sea simplemente embarazosa. Considera necesario un control sobre su acceso y como los datos pueden ser almacenados, procesados, transformados, combinados y presentados en el sistema.

Como indica la corporación VINFOPOL (188) es fundamental asegurar que estos datos se manejen de acuerdo con las normativas nacionales y europeas de protección de datos. Ya la Directiva (UE) 2016/680 (LA LEY 6638/2016), del Parlamento Europeo y del Consejo (189) establece una serie de garantías para la actividad de «elaboración de perfiles» que define (190) como toda forma de tratamiento automatizado de datos personales consistente en utilizar datos personales para evaluar determinados aspectos personales de una persona física, en particular para analizar o predecir aspectos relativos al rendimiento profesional, situación económica, salud, preferencias personales, intereses, fiabilidad, comportamiento, ubicación o movimientos de dicha persona física.

La Directiva (191) establece las salvaguardas del interesado frente a decisiones que evalúen aspectos personales que le conciernen que se basen únicamente en un tratamiento automatizado de los datos y que tenga efectos jurídicos adversos que le conciernan o le afecten significativamente. Se requiere una intervención humana que informe al interesado sobre la decisión adoptada y escuche su punto de vista. El interesado tendrá asimismo derecho a impugnar la decisión. Queda prohibida la elaboración de perfiles que den lugar a la discriminación de personas físicas por razones basadas en datos personales que, por su naturaleza, son especialmente sensibles en relación con los derechos y las libertades fundamentales Para poder ejercer sus derechos, toda la información dirigida al interesado debe ser fácilmente accesible.

En España, el art. 14 de la Ley Orgánica 7/2021 (LA LEY 11831/2021) de mayo, de protección de datos personales tratados para fines de prevención, detección, investigación y enjuiciamiento de infracciones penales y de ejecución de sanciones penales prohíbe el tratamiento individualizado de datos personales que se traduzca en una decisión capaz de producir efectos negativos para el sujeto objeto del tratamiento, queda prohibidos. La única excepción es que dicho tratamiento esté determinado por una norma habilitante, la cual deberá contener las medidas adecuadas para salvaguardar los derechos y libertades del interesado, incluyendo el derecho a obtener la intervención humana en el proceso de revisión de la decisión adoptada.

El art. 15 establece como excepción la captación, reproducción y tratamiento de datos personales por las Fuerzas y Cuerpos de Seguridad en los términos previstos por la Ley, tampoco las actividades preparatorias se considerarán intromisiones ilegítimas en el derecho al honor, a la intimidad personal y familiar y a la propia imagen. Para SUAREZ XAVIER (192) la excepción supone ignorar un sistema de garantías individuales consagrado por la Ley Orgánica 7/2021 (LA LEY 11831/2021) y consolidar «un sistema de control colectivo», que en un momento dado se dirigirá contra individuos concretos. Para el autor, la referencia a «actividades preparatorias» del art. 15 avala un sistema de policía predictiva sin necesidad de autorización judicial que habilite la injerencia policial sobre estos ciudadanos.

No obstante, el poder policial, a la hora de configurar estas bases de datos, no es absoluto. Una garantía clave es la supresión, pasado el tiempo, de los datos personales que contenga el sistema predictivo (193) . En la STEDH, Catt c. el Reino Unido, n.o 43514/15, de 24 de enero de 2019, el Reino Unido fue condenado al considerar que la retención de los datos personales del sr. Catt dentro de un sistema policial predictivo constituía una injerencia lesiva del derecho a la vida privada del demandante conforme al art. 8 de la Convención Europea de Derechos Humanos (LA LEY 16/1950). Así, Catt, un ciudadano británico, participó en el año 2005 en las protestas de un grupo llamado «Smash EDO» contra la fábrica de Brighton de la empresa armamentística estadounidense EDO MBM Technology Ltd. Las protestas se saldaron con desordenes e intervención policial. Catt nunca fue condenado por ningún delito. En marzo del 2019, Catt solicitó a la policía, en virtud de la Ley de Protección de Datos de 1998, la información que pudiera existir sobre él en las bases policiales de datos. La policía le comunicó 66 entradas recogidas entre marzo de 2005 y octubre de 2009, sobre su presencia en diferentes manifestaciones y actos de protesta (194) . La información figuraba en una base de datos policial relativa a «extremismo doméstico». En agosto de 2010, Catt pidió a la Asociación de jefes de Policía (AJP) que suprimiera las entradas en las que se le mencionaba, pero la AJP se negó a hacerlo, argumentando que dicha información formaba parte de una base de datos predictiva. AJP argumentó que «... los registros se conservan para ayudar a la policía del Reino Unido a gestionar un riesgo futuro de delito —del que [usted] podría ser víctima—. Los registros en sí no deben ser y no serán revelados [a usted] por lo que son razones obvias. Una base de datos de inteligencia pierde toda su eficacia si no se mantiene confidencial».

El Tribunal Supremo del Reino Unido confirmó el 4 de marzo de 2015 que la decisión adoptada era conforme a Derecho. El ponente Lord Sumption indicó que aunque la información personal conservada por la policía era personal, no era intima ni sensible, refiriéndose a actos públicos de protesta cuya difusión pública era deseada por quienes intervenían en ellos. En consecuencia la injerencia en la intimidad era menor. Consideró justificado conservar los datos personales de una persona sin antecedentes penales para la que la delincuencia violenta era tan sólo una perspectiva remota ya que podían ser útiles en investigaciones de delitos penales, identificando testigos y víctimas. Concluyó manifestando que la inclusión en la base de datos no estigmatizaba a nadie, no se le daba una difusión pública, ni se utilizaba con fines políticos, ni para victimizar disidentes, ni estaba a disposición de empleadores y que el material también se revisaba periódicamente para su conservación o supresión con arreglo a criterios racionales y proporcionados.

La Corte Europea recordó su doctrina (195) respecto al requisito de que la injerencia en la vida privada sea «conforme a derecho» como impone el art. 8 de la Convención. No basta con que la medida impugnada tenga algún fundamento en el derecho interno, sino que también se refiere a la calidad del derecho, de forma que ofrezca una protección jurídica adecuada contra la arbitrariedad. La Sala expresó su preocupación por algunos aspectos de las disposiciones legales internas del Reino Unido relativas a la recogida de datos personales en la base de datos, en particular la falta de una definición clara de «extremismo doméstico» (196) , pero consideró que el sistema normativo británico que combina la ley con una guía de buenas prácticas (197) , ofrecía una cobertura normativa suficiente para recoger los datos.

En consecuencia, la Sentencia pasó a centrarse en si había existido una justificación para interferir en los derechos de Catt al conservar el sistema datos sobre él. Expone la Sentencia que no ha habido controversia significativa sobre si la creación y el mantenimiento de la base de datos por la policía persigue una finalidad legítima, siendo la misma la prevención de desórdenes o delitos y la salvaguardia de los derechos y libertades de los demás. La Corte Europea consideró que había buenas razones policiales para recopilar esos datos. En el caso de Catt, la recogida de los mismos estaba justificada porque se sabía que las actividades de «Smash EDO» eran violentas y potencialmente delictivas. Aunque Catt nunca había sido violento ni había mostrado ninguna tendencia a ese tipo de comportamiento, se había identificado repetida y públicamente con ese grupo.

La Resolución del TEDH consideró, sin embargo, que la retención continuada de los datos personales en el caso de Catt había sido desproporcionada porque tales datos revelaban opiniones políticas y, por tanto, tenían una protección reforzada; se había aceptado que Catt no suponía una amenaza para nadie; y había existido una ausencia de garantías procesales efectivas ante la ausencia de un límite temporal sobre cuánto tiempo debían conservarse los datos, siendo la única norma definitiva de protección de datos que la información se conservaría durante un mínimo de seis años antes de ser revisada. En el caso de Catt no estaba claro que se hubieran llevado a cabo tales revisiones de seis años o de otro tipo. El Reino Unido fue condenado, quedando afectados sistemas predictivos que, como vimos, padecían las mismas deficiencias como el «Gang Matrix» aplicado por la policía londinense.

Asimismo, es fundamental en la materia el Reglamento (UE) 2024/1689 (LA LEY 16665/2024) (198) que califica (199) siempre como de alto riesgo al sistema de IA que elabora perfiles de personas físicas. En consecuencia, el Reglamento recopila un completo sistema de salvaguardas como la exactitud, en forma de datos de entrenamiento, validación y pruebas para la preparación de modelos (art. 10); vigilancia de su funcionamiento (art. 12); transparencia y comunicación de información a los responsables del despliegue de forma que interpreten y usen correctamente sus resultados de salida (art. 13) y una necesaria supervisión humana (art.14).

VII. El valor probatorio del algoritmo en el proceso penal

Dijimos «supra» que la policía predictiva no aspira a ser en sí misma una prueba incriminadora. Tiene como objetivos principales disuadir al criminal, proteger a las víctimas y restaurar la paz pero la predicción puede determinar que la policía esté en el lugar y sitio correctos o siga a la persona adecuada en el momento pertinente y ello desemboque en una detención y en una posterior acusación. ¿Hasta qué punto puede un sistema de policía predictivo operar como indicio probatorio y, en su caso contaminar una prueba que haya generado?

En España, el AAP de Madrid, secc. 26ª, n.o 878/2024, de 29 de abril (LA LEY 213703/2024) indica que la evaluación policial de riesgo del sistema VioGen, no tiene ninguna transcendencia en cuanto al esclarecimiento de los delitos de violencia de género y su posible relevancia jurídica. No obstante, excepcionalmente, el sistema predictivo se ha defendido en juicio por un agente especializado y ha tenido valor probatori. Así, la SAP de Huesca, secc. 1ª, n.o 200/2023, de 29 de noviembre (LA LEY 387157/2023) pone de manifiesto la declaración testifical de una agente del Equipo Mujer Menor de la Policía Judicial de Huesca —EMUME que explica como la conclusión del sistema de riesgo VioGen «… se extrae a través de unos parámetros, que se introducen a través de los campos que el sistema va preguntando, estos son iguales para todas las víctimas de violencia de género y es el propio sistema el que da el riesgo, y en este caso era alto»—. La prueba principal de cargo es la declaración de la víctima y el informe VioGen junto al reconocimiento de los hechos por los acusados son «elementos periféricos corroboradores».

También la SAP de La Rioja, secc. 1ª, n.o 119/2022, de 13 de julio (LA LEY 202544/2022), valora en un caso de agresión sexual, la declaración testifical-pericial (200) , de una agente que entró inicialmente en contacto con la víctima. Expuso que la valoración inicial de VioGen del riesgo existente fue «bajo». Se ponderó que no existía parte de lesiones ni constancia de las mismas y que «Aunque la denunciante afirmó insistentemente que hubo gritos, su madre y un compañero de piso, lo desmintieron». VioGen fue un factor a favor de la absolución del reo, si bien la agente manifestó que la maquina hoy en día habría dicho otra cosa ya que «el sistema ha cambiado desde entonces y ahora, intentar agarrarla del cuello se valora por VioGen como muy grave (201) ». La Sentencia fue absolutoria al no darse crédito a la víctima.

El valor probatorio del algoritmo predictivo queda lastrado por la preocupación presente en un dictamen del Parlamento Europeo (202) que advierte del empleo de los sistemas algorítmicos predictivos por poder dar lugar a un trato diferenciado y a la discriminación tanto directa como indirecta de grupos de personas, por cuanto los datos utilizados para entrenar algoritmos de predicción policial reflejan las prioridades de vigilancia en curso y, en consecuencia, pueden acabar reproduciendo y amplificando los sesgos actuales; subraya, por consiguiente, que las tecnologías de la IA, especialmente cuando se despliegan para su uso por parte de las fuerzas del orden y el poder judicial, requieren investigación y aportaciones interdisciplinarias, incluidos los ámbitos de los estudios científicos y tecnológicos, y estudios críticos sobre la raza y la discapacidad y otras disciplinas en sintonía con el contexto social, incluida la forma en que se construye la diferencia, la labor de clasificación y sus consecuencias; subraya la necesidad de invertir sistemáticamente en el estudio y la investigación de la IA a todos los niveles y concluye con la importancia de que los equipos que diseñan los sistemas de IA para las fuerzas del orden y el poder judicial reflejen, en la medida de lo posible, la diversidad de la sociedad en general como medio no técnico de reducir los riesgos de discriminación (203) .

El dictamen se opone por tanto a que las autoridades policiales utilicen la IA para hacer predicciones sobre el comportamiento de personas o grupos basándose en datos históricos y en comportamientos anteriores, pertenencia a grupos, ubicación o cualquier otra característica de este tipo, intentando así identificar a las personas susceptibles de cometer un delito.

El Reglamento de la Unión Europea sobre Inteligencia artificial (204) establece que en «consonancia con la presunción de inocencia, las personas físicas de la Unión siempre deben ser juzgadas basándose en su comportamiento real. Las personas físicas nunca deben ser juzgadas a partir de comportamientos predichos por una IA basados únicamente en la elaboración de sus perfiles, en los rasgos o características de su personalidad, como la nacionalidad, el lugar de nacimiento, el lugar de residencia, el número de hijos, el nivel de endeudamiento o el tipo de vehículo, sin una valoración humana y sin que exista una sospecha razonable, basada en hechos objetivos comprobables, de que dicha persona está implicada en una actividad delictiva». Añade a continuación que «Por lo tanto, deben prohibirse las evaluaciones de riesgos realizadas con respecto a personas físicas para evaluar la probabilidad de que cometan un delito o para predecir la comisión de un delito real o potencial basándose únicamente en la elaboración de perfiles de esas personas físicas o la evaluación de los rasgos y características de su personalidad» (205) .

Podemos extraer de esta previsión del Reglamento:

  • a.- Únicamente se regula el valor probatorio del sistema predictivo policial como prueba acusadora en un juicio. No se extiende a su función de prevención del delito.
  • b.- Asimismo, alude sólo a las personas físicas, lo que deja abierto el interesante tema de poder proyectar los perfiles criminales en el marco de procedimientos penales contra corporaciones, sin exigir sospechas previas y sin intervención humana.
  • c.- Un sistema predictivo puede incluir datos personales siempre que exista una sospecha razonable y comprobable de que el sujeto ha cometido un delito. Quedan proscritos, por tanto, los sistemas predictivos prospectivos que se generan sin datos objetivos mínimamente fehacientes de que se ha cometido un delito y que actúan de manera indiscriminada, para ver si por alguna casualidad se encuentra algo.
  • d.- Son sospechas aptas para integrar el modelo predictivo las detenciones, acusaciones, condenas anteriores, relación con criminales, o tenencia de cantidades de dinero o patrimonios injustificados, en definitiva, los indicios racionales de criminalidad que configuran el primer requisito del delito de blanqueo.
  • e.- Los datos personales que pueden acceder para construir el perfil criminal se citan en el Reglamento a modo de ejemplo (206) . No se menciona la raza (207) que por su carácter discriminatorio debe ser excluida como rasgo a ponderar.
  • f.- Es imprescindible que el árbitro y conductor del sistema predictivo sea el ser humano.

Doctrinalmente, GLESS (208) considera que una detención basada en el perfil elaborado por un algoritmo no está justificada si no concurre «la sospecha razonable» de que haya cometido un delito que exige el art. 5 de la Convención Europea de Derechos Humanos (LA LEY 16/1950) para justificar la detención. Con cita de la STEDH, Fox Campbell y Hartley c. el Reino Unido 1990, expone que la razonabilidad de la sospecha es una parte esencial de la salvaguarda contra el arresto y la detención arbitraria y presupone la existencia de hechos o informaciones que satisfagan a un observador objetivo de que la persona en cuestión puede haber cometido la infracción. Un sistema de elaboración de perfiles policiales basado en algoritmos que categorizan a un sujeto, no genera ex ante para el autor «una causa probable para arrestar a un individuo». No comparto el criterio. Si el algoritmo no adolece de un sesgo discriminatorio, su juicio predictivo avalado por un humano es apto para fundar una sospecha razonable. En tal supuesto se genera un punto de partida valido para detener a alguien o iniciar una investigación. Siendo indiscutible que la policía puede actuar de esta forma en base a confidentes físicos, el algoritmo no dejaría de ser un informante virtual de la policía. Comparto la afirmación de JAMIL (209) «el rol del análisis predictivo es identificar sospechosos potenciales. El algoritmo extrae información que señala a personas de interés para futuras investigaciones, sin subjetividad ni discriminación. La herramienta de análisis predictivo es un instrumento adicional para la aplicación de la ley. Las fuerzas de seguridad acuden a la predicción en lugar de un informante o de una denuncia anónima». Ahora bien, es preciso, como dijimos, fijar la trazabilidad del algoritmo y determinar qué datos han generado la predicción para descartar el sesgo discriminatorio.

Como muy bien explica GUILLEN LASIERRA (210) se infringe el derecho a no ser discriminado por razón de raza (art. 14 CE (LA LEY 2500/1978)), en el caso de iniciarse una actividad de policía con el sólo fundamento de los signos raciales o nacionales de una persona (211) . De la misma forma, si la policía da por seguro que por el hecho de pertenecer a un grupo o etnia la persona ha de haber cometido (o tiene muchas posibilidades de haberlo hecho) un delito o infracción, se vulnera la presunción de inocencia.

VIII. Conclusión final

La policía predictiva tecnológica, con las salvaguardas adecuadas es una herramienta adecuada para reducir la cadencia del crimen pero el sistema debe respetar los derechos fundamentales en su conjunto.

La aplicación del programa genera una serie de derechos de nueva generación que sólo embrionaria y parcialmente se regulan normativamente. Las personas cuyos datos personales alimentan un programa predictivo tienen derecho a que existan sospechas objetivas de que haya protagonizado algún acto criminal y a la cancelación de los datos una vez pasado un tiempo razonable.

Otro derecho capital del titular de los datos personales que alberga el sistema es que el mismo lo dirija un humano. Es indudable que la tecnología analiza más datos y a más velocidad que la persona pero no ha alcanzado un grado suficientemente avanzado de evolución para sustituirla, siendo imprescindible una intervención humana especializada que, sin restricciones, avale la predicción del algoritmo para que acceda al mundo real. Este derecho a la humanización se extiende también a los policías que deben aplicarlo quienes gozan del derecho a no ser gobernados desde la sombra de un algoritmo y que no sea una máquina la que les envíe a zonas de riesgo.

La entidad pública debe supervisar al ente privado y conjurar cualquier abuso

Acudir a corporaciones privadas para elaborar estos programas es licito. El interés privado puede coexistir con el público, pero desde posiciones propias que no deben confundirse. La Administración, en materia de seguridad y garantías constitucionales, no puede ser una mera contratista y la empresa privada no puede vestir ropajes estatales para suplantar funciones públicas sin control alguno. La entidad pública debe supervisar al ente privado y conjurar cualquier abuso.

El eje del sistema es la proscripción de algoritmos racistas y discriminatorios siendo fundamental la explicación de las variables que el programa emplea, la trazabilidad y una auditoría independiente del programa.

Es precisa una regulación normativa holística que establezca las garantías y regule el empleo del algoritmo predictivo. En particular, la Ley de Enjuiciamiento Criminal (LA LEY 1/1882) debe fijar, siguiendo el modelo del Reglamento Europeo, las exigencias precisas para que el sistema pueda operar como indicio probatorio. Asimismo, la normativa administrativa tiene que establecer los derechos de los policías, tanto los del patrullero y analista frente al algoritmo, como los del policía frente al analista y, en la Ley de Seguridad Ciudadana, concretar los poderes y actuaciones policiales en la ejecución del programa predictivo. El legislador tiene la última palabra.

IX. Bibliografia

AGUIRRE, Katherine; BADRAN, Emile; MUGGAH, Robert. Future Crime. Assessing twenty first century crime prediction. Igarapé Institute, strategic note n.o 33, 2019.

ADOWSKI, Friederike, et al. RADAR-iTE 2.0: An Instrument of the German State Protection-Structure, Development and Current Stage of Evaluation. En Terrorism Risk Assessment Instruments. IOS Press, 2021. pp. 223-235.

ANDERSON, Cahoime Marie. The Impact of Algoritmo in Criminal Sentencing on Due process Rights. 2019. Tesis Doctoral. Queen’s University Belfast.

ANDREJEVIC, Mark. Digital citizenship and surveillance| To Pre-empt a thief. International Journal of Communication, 2017, vol. 11, pp. 879-895

BACHNER, JenniferPredictive policing: preventing crime with data and analytics. Washington, DC: IBM Center for the Business of Government, 2013.

BALOGH, D.A. Near Repeat-Prediction mit PRECOBS bei der Stadtpolizei Zürich. Kriminalistik, 2016, vol. 70, n.o 5, pp. 335-341.

BARONA, Silvia. Dataización de la justicia (Algoritmos, Inteligencia Artificial y Justicia, ¿el comienzo de una gran amistad?). Revista Boliviana de Derecho, 2023, n.o 36, pp. 14-45.

BENBOUZID, Bilel. Values and Consequences in Predictive Machine Evaluation. A Sociology of Predictive Policing. Science & Technology Studies, 2018, vol. 31, pp. 119-136.

BENNETT MOSES, Lyria; CHAN, Janet. Algorithmic prediction in policing: assumptions, evaluation, and accountability. Policing and society, 2018, vol. 28, n.o 7, pp. 806-822.

BORGES BLÁZQUEZ, Raquel. Algoritmización de la concesión de medidas cautelares en el proceso penal para la protección de víctimas de violencia de género. ¿ Es capaz VIOGEN de interpretar el «periculum in mora»?, Actualidad jurídica iberoamericana, 2024, n.o 41, pp. 384-407.

BRAYNE, Sarah; ROSENBLAT, Alex; BOYD, Danah. Predictive policing. Data & Civil Rights: A New Era of Policing and Justice, 2015, pp. 1-10.

BUENO DE MATA, Federico. Macrodatos, inteligencia artificial y proceso: luces y sombras. Revista General de Derecho Procesal, 2020, n.o 51.

CAMACHO-COLLADOS, Miguel; LIBERATORE, Federico. A decision support system for predictive police patrolling. Decision support systems, 2015, vol. 75, pp. 25-37.

CAMACHO COLLADOS, Miguel. Statistical analysis of spatio-temporal crime patterns: Optimization of patrolling strategies. Tesis doctoral. Universidad de Granada, 2016. digibug.ugr.es/bitstream/handle/10481/44557/26134081.pdf.

CINELLI, Virginia; MANRIQUE, Alberto «El uso de programas de análisis predictivo en la inteligencia policial: una comparativa europea». Revista de Estudios en Seguridad Internacional, vol. 5, n.o 2, 2019, pp. 1-19. DOI:  http://dx.doi.org/10.18847/1.10.1.

CRAWFORD, Kate. The hidden biases in big data. Harvard business review, 2013, vol. 1, n.o 4, pp. 1-10.

EGBERT, Simon; KRASMANN, Susanne. Predictive policing: Not yet, but soon preemptive? Policing and society, 2020, vol. 30, n.o 8, pp. 905-919.

EZEH, Christopher. The use of spatial analytical techniques to highlight the geography of burglary in Leeds, UK. Gazi University Journal of Science Part B: Art Humanities Design and Planning, 2021, vol. 9, n.o 2, pp. 129-140.

FACENDA FALAVIGNO, Chiavelli. Minority Report e a punição antes do crime: diálogos entre a realidade e a ficção. Di Pop, O direito na Cultura Pop, 2017, n.o 3, pp. 49-59.

FERGUSON, Andrew Guthrie.

Policing predictive policing. Wash. UL Rev., 2016, vol. 94, pp. 1109-1194.

Predictive policing and reasonable suspicion. Emory LJ, 2012, vol. 62, pp. 259-325.

FIELDING, Matthew; JONES, Vincent. «Disrupting the optimal forager»: predictive risk mapping and domestic burglary reduction in Trafford, Greater Manchester. International Journal of Police Science & Management, 2012, vol. 14, n.o 1, pp. 30-41.

GALIS, Vasilis; KARLSSON, Björn. A world of Palantir-ontological politics in the Danish police’s POL-INTEL. Information, Communication & Society, 2024, pp. 1-19.

GIMENO BEVIÁ , Jordi. Instrumentos actuales de policía y justicia predictiva en el proceso penal español: Análisis crítico y reflexiones de lege ferenda ante aplicaciones futuras. Estudios penales y criminológicos, 2023, vol. 44, pp. 1-22.

GLESS, Sabine. Predictive policing. In defence of «true positives». BEING PROFILED:COGITAS ERGO SUM. 10 Years of Profiling the European Citizen, Amsterdan University Press, 2019. https://doi.org/10.1515/9789048550180.

GLUBA, A. Predictive policing. Eine Bestandsaufnahme. Historie, theoretische Grundlagen, Anwendungsgebiete und Wirkung. LKA Niedersachen.2015. https://netzpoli tik.org/wp-upload/LKA_NRW_Predictive_Policing.pdf. 2015.

GONZÁLEZ ÁLVAREZ, José Luis; HERMOSO, Jorge Santos; CAMACHO-COLLADOS, Miguel. Policía predictiva en España: aplicación y retos futuros. Behavior & Law Journal, 2020, vol. 6, n.o 1, pp. 26-41. https://doi.org/10.47442/blj.v6.i1.75.

GONZÁLEZ ÁLVAREZ, José Luis.; LÓPEZ OSORIO, Juan José; MUÑOZ RIVAS, Marina. La valoración policial del riesgo de violencia contra la mujer pareja en España-Sistema VioGén, Gobierno de España, 2018.

HAMILTON, Melissa. Evaluating algorithmic risk assessment. New criminal law review, 2021, vol. 24, n.o 2, pp. 156-211.

HARCOURT, Bernard E. Against prediction: Profiling, policing, and punishing in an actuarial age. University of Chicago Press, 2019.

HARDYNS, Wim; RUMMENS, Anneleen. Predictive policing as a new tool for law enforcement? Recent developments and challenges. European journal on criminal policy and research, 2018, vol. 24, pp. 201-218.

HUMERICK, Jacob D. Reprogramming fairness: Affirmative action in algorithmic criminal sentencing. HRLR Online, 2019, vol. 4, pp. 213-245.

HUNG, Tzu-Wei; YEN, Chun-Ping. Predictive policing and algorithmic fairness. Synthese, 2023, vol. 201, n.o 6, pp. 1-29.

HUNT, Priscillia; SAUNDERS, Jessica; HOLLYWOOD, John S. Evaluation of the Shreveport predictive policing experiment. Santa Monica: Rand Corporation, 2014.

ITÄLUNNI, Jarno. Development of the RADAR-iTE instruction card for operational and educational purposes, 2018, Bachelor’s Thesis. Laurea University of applied sciences.

JAMIL, Maryam. TH-SOF-1397-CRM analytics based on association rules and clustering pattern. 2016. Tesis Doctoral. Nust College of Electrical and Mechanical Engineering.

KAUFMANN, Mareile; EGBERT, Simon; LEESE, Matthias. Predictive policing and the politics of patterns. The British journal of criminology, 2019, vol. 59, n.o 3, pp. 674-692.

KUBLER, Kyle. State of urgency: Surveillance, power, and algorithms in France’s state of emergency. Big Data & Society, 2017, vol. 4, n.o 2, pp. 1-10.

LIGETI, Katalin. Artificial Intelligence and Criminal Justice. En AIDP-IAPL International Congress of. 2019. pp. 1-16.

MIRÓ LLINARES, Fernando. «Policía predictiva: ¿Utopía o distopia? Sobre les actituds cap a l’ús d’algorismes de big data per a l’aplicació de la llei». IDP. Revista d’Internet, Dret i Política, 2020, n.o 30, https://doi.org/10.7238/idp.v0i30.3223.

LÓPEZ-OSORIO, Juan José; LOINAZ, Ismael; GONZÁLEZ-ÁLVAREZ, José Luis. Protocolo para la valoración policial del riesgo de violencia de género (VPR4. 0): revisión de su funcionamiento. Revista Española de Medicina Legal, 2019, vol. 45, n.o 2, pp. 52-58.

LÓPEZ RIBA, José María. Inteligencia artificial y control policial: Cuestiones para un debate frente al hype. InDret: revista para el análisis del derecho, 2024, n.o 2, pp. 407-436.

LUM, Kristian; ISAAC, William.

To predict and serve? Significance, 2016, vol. 13, n.o 5, pp. 14-19.

«Predictive policing violates more than it protects». Columna publicada en USA Today, 2 de diciembre de 2016.

MANSUR, Fariha. Predictive Policing Using AI & ML for Domestic Law Enforcement: Critical Analysis & Framework Development in EU, Degree of International Master in Security, Intelligence and Strategic Studies, University of Glasgow, Charles University, 2023.

MARCHENA GÓMEZ, Manuel. Inteligencia artificial y jurisdicción penal. Discurso dado por el autor con ocasión de su admisión como académico de pleno derecho por la Real Academia de Doctores de España, 2022.

MASTROBUONI, Giovanni. Crime is terribly revealing: Information technology and police productivity. The Review of Economic Studies, 2020, vol. 87, n.o 6, pp. 2727-2753.

MOHLER, George O, et al. Randomized controlled field trials of predictive policing. Journal of the American statistical association, 2015, vol. 110, n.o 512, pp. 1-36.

MUTSAERS, Paul; VAN NUENEN, Tom. Predictively policed: the Dutch CAS case and its forerunners. Policing race, ethnicity and culture. Manchester University Press, 2023. pp. 72-94.

NISHI, Andrea. Privatizing sentencing: A delegation framework for recidivism risk assessment. Colum. L. Rev., 2019, vol. 119, pp. 1671-1710.

NÓHPAL RODRÍGUEZ, Víctor Shaí. La posibilidad de la policía predictiva. Revista Mexicana de Ciencias Penales, 2021, vol. 4, n.o 14, pp. 135-144.

OSWALD, Marion; GRACE, Jamie; URWIN, Sheena; BARNES, Geoffrey C. Algorithmic risk assessment policing models: lessons from the Durham HART model and «Experimental’proportionality. Information & communications technology law, 2018, vol. 27, n.o 2, pp. 223-250.

PREÇI, Sokol; VYSHKA, Gentiam. Measuring the Amygdala; Otherwise Recycling Lombroso Theories One and Half Centuries Later. Anthropol, 2014, vol.2, n.o 2, pp. 1-2.

PRESNO LINERO, Miguel. Inteligencia artificial, policía predictiva y prevención de la violencia de género. Revista internacional de vitimologia e justiça restaurativa, 2023, vol. 1, n.o 2, pp. 85-118.

RICHARDSON, Rashida; SCHULTZ, Jason M.; CRAWFORD, Kate. Dirty data, bad predictions: How civil rights violations impact police data, predictive policing systems, and justice. NYUL Rev. Online, 2019, vol. 94, pp. 193-233.

RONCEK, Dennis W.; PRAVATINER, Mitchell A. Additional evidence that taverns enhance nearby crime. Sociology and Social Research, 1989, vol. 73, n.o 4, pp. 185-188.

SANDHU, Ajay; FUSSEY, Peter. The «uberization of policing»? How police negotiate and operationalise predictive policing technology. Policing and society, 2021, vol. 31, n.o 1, pp. 66-81.

SAUNDERS, Jessica; HUNT, Priscillia; HOLLYWOOD, John S. Predictions put into practice: a quasi-experimental evaluation of Chicago’s predictive policing pilot. Journal of experimental criminology, 2016, vol. 12, pp. 347-371.

SCHLEHAHN, Eva; AICHROTH, Patrick; MANN, Sebastian; SCHREINER, Rudolf; SHEPHERD, Ifan; WILLIAM WONG, B.L. Benefits and pitfalls of predictive policing. European intelligence and security informatics conference. IEEE, 2015, pp. 145-148.

SCHUILENBURG, Marc. Predictive policing: De opkomst van een gedachtenpolitie. Ars aequi, 2016, 65(12), pp. 931-936.

SCHUILENBURG, Marc; SOUDIJN, Melvin. Big data policing: The use of big data and algorithms by the Netherlands Police. Policing: A Journal of Policy and Practice, 2023, vol. 17, pp. 1-8.

SHAPIRO, Aaron. Reform predictive policing. Nature, 2017, vol. 541, n.o 7638, pp. 458-460.

SOUTHERLAND, Vincent M. The intersection of race and algorithmic tools in the criminal legal system. Md. L. Rev., 2020, vol. 80, pp. 487-572.

STĂNILĂ, PhD Laura Maria. Minority Report: AI criminal investigation. En International Scientific Conference «Towards a Better Future: Human Rights, Organized Crime and Digital Society , 2020.

THOMAS, Christopher; PONTÓN-NUÑEZ, Antonio. Automating judicial discretion: How algorithmic risk assessments in pretrial adjudications violate equal protection rights on the basis of race. Law & Ineq., 2022, vol. 40, pp. 371-407.

VAN BRAKEL, Rosamunde. Rethinking predictive policing: Towards a holistic framework of democratic algorithmic surveillance. En The Algorithmic Society. Routledge, 2020, pp. 104-118.

VEPŘEK, Libuše Hannah, et al. Beyond effectiveness: legitimising predictive policing in Germany. Kriminologie-Das Online-Journal| Criminology-The Online Journal, 2020, n.o 3, pp. 423-443.

DODD, Vikram. Police gang strategy’targets people unlikely to commit violence. Artículo publicado en The Guardian, 7 de mayo de 2018.

VILLALOBOS FONSECA, Hazel. El desarrollo tecnológico en materia policial: una receta de éxito para la prevención del delito. Revista de relaciones internacionales, estrategia y seguridad, 2020, vol. 15, n.o 1, pp. 79-97.

VOLOKH, Eugene. Chief justice robots. Duke LJ, 2018, vol. 68, n.o 6, pp. 1135-1191.

WITTEVEEN, Samuel, «Policía predictiva: cuando el que decide es un algoritmo». Artículo publicado en El Salto Diario, 22 de junio de 2022. DOI: underlined>https://www.elsaltodiario.com/.

SUÁREZ XAVIER, Paulo Ramón. Policía predictiva: entre seguridad y garantías fundamentales. En Investigación y proceso penal en el siglo XXI: nuevas tecnologías y protección de datos. Thomson Reuters Aranzadi, 2021. pp. 573-590.

UCHIDA, Craig D; SWATT, Marc.L; SOLOMON, Shellie E; VARANO, Sean.Data-driven crime prevention: New tools for community involvement and crime control. Justice & Security Strategies, Incorporated, 2013.

(1)

Este trabajo ha recibido el premio de la V edición de artículos jurídicos de la Asociación de Juristas y Profesionales del Derecho San Raimundo de Peñafort

Ver Texto
(2)

Dirigida en el año 2002 por Steven Spielberg y basada en el relato corto «The Minority Report» de Philip K. Dick publicada en el año 1956 por la revista Fantastic Universe.

Ver Texto
(3)

Arthur, Dashiell y Agatha.

Ver Texto
(4)

Interpretado por el actor Tom Cruise.

Ver Texto
(5)

LUM, Kristian; ISAAC, William. To predict and serve? Significance, 2016, vol. 13, n.o 5. https://doi.org/10.1111/j.1740-9713.2016.00960.x

Ver Texto
(6)

LUM, Kristian; ISAAC, William. «Predictive policing violates more than it protects». Columna publicada en USA Today, 2 de diciembre de 2016.

Ver Texto
(7)

STĂNILĂ, PhD Laura Maria. Minority Report: AI criminal investigation. En International Scientific Conference «Towards a Better Future: Human Rights, Organized Crime and Digital Society». 2020. p. 142. Minority Report no trata de la Inteligencia artificial, sino el de la premonición y el uso de experiencias extrasensoriales en la investigación criminal…».

A ello se une como factor diferencial que los precogs no son algoritmos sino personas pero se mantienen por el sistema en un estado vegetativo, en un punto medio en que no deben entrar en un sueño muy profundo ni tampoco estar demasiado despiertos.

Ver Texto
(8)

Si bien BRAYNE, Sarah; ROSENBLAT, Alex; BOYD, Danah. Predictive policing. Data & Civil Rights: A New Era of Policing and Justice, 2015, p. 5 consideran que Minority Report es una caracterización engañosa de la policía predictiva que distrae de los problemas importantes. La policía predictiva no es como una bola de cristal. No predice el futuro. Cuando se utiliza correctamente, puede dar a los agentes de policía información probabilística sobre dónde ir y a quién vigilar. En la mayoría de los casos, los modelos predictivos sirven para confirmar las intuiciones policiales. Sin embargo , también pueden disipar las percepciones individuales de los agentes sobre la delincuencia o los índices de delincuencia, que pueden ser inexactas o anticuadas.

Ver Texto
(9)

El modelo no sólo es opaco sino que oculta deliberadamente información al público como el hecho de que en ocasiones uno de los tres precogs ve el suceso de otra manera. Esos informes minoritarios se destruyen para que la gente no tenga dudas en el sistema. Como dice en la película el fundador del programa «Para que Precrimen funcione, no puede haber ni la idea de falibilidad. ¿Quién desea un sistema de justicia que infunda dudas? Será razonable, pero sigue siendo una duda».

Ver Texto
(10)

Tras la entrada en vigor del programa PRECRIME, en los seis últimos años no se había producido ningún asesinato.

Ver Texto
(11)

Hay ciudadanos que ven como dioses a los precogs. Este misticismo de adoración se refleja en la conversación dentro de la película en que Danny Witwer indica «La ciencia nos ha robado nuestros milagros. Los precogs nos dan esperanza. Esperanza en la existencia de lo divino. Es interesante que algunos han empezado a deificar a los precogs». En otra escena, un agente le dice a Anderton «Por favor, jefe. Nuestro trabajo, cambiar el destino nos vuelve más clero que policía».

Ver Texto
(12)

STĂNILĂ, PhD Laura Maria, op. cit., p. 140, destaca también otras cuestiones en relación con los derechos procesales del sospechoso, la noción de «víctima» y los límites de las acciones del Estado en la fase predelictiva. CHIAVELLI FACENDA FALAVIGNO, Chiavelli. Minority Report e a punição antes do crime: diálogos entre a realidade e a ficção. Di Pop, O direito na Cultura Pop, 2017, n.o 3, p. 54, resalta que la posibilidad de predecir el comportamiento criminal, como ocurre en Minority Report entronca también con la neurociencia y su relación con el derecho penal, existiendo investigaciones respecto a que muchas acciones humanas se generan de forma inconsciente en el cerebro, tomándose la decisión individual consciente más tarde.

Ver Texto
(13)

SCANNELL, R. Joshua. This is not minority report. Captivating technology, 2019, p. 120.

Ver Texto
(14)

SUÁREZ XAVIER, Paulo Ramón. Policía predictiva: entre seguridad y garantías fundamentales. En Investigación y proceso penal en el siglo XXI: nuevas tecnologías y protección de datos. Thomson Reuters Aranzadi, 2021. p. 574.

Ver Texto
(15)

Se ha afirmado por SCHUILENBURG, Marc. Predictive policing: De opkomst van een gedachtenpolitie. Ars aequi, 2016, 65(12), p. 932 que la forma clásica de policía predictiva se remonta a las investigaciones del siglo XIX de Cesare Lombroso y su polémico estudio de 1876 Uomo delinquente sobre las diferencias y similitudes de la anatomía de los delincuentes, los perturbados mentales y las personas normales. Lombroso elaboró una tipología general del criminal a partir de la cual se podían predecir y prevenir los delitos. Para ello utilizó, entre otras cosas, las medidas del cráneo. Inspirándose en las investigaciones estadísticas del científico belga Adolphe Quetelet se sumergió en los trabajos de biólogos evolucionistas como Charles Darwin. Los resultados de las investigaciones de Lombroso indicaron, entre otras cosas, que los delincuentes se distinguen de las personas normales por su menor estatura y por su mayor umbral al dolor.

Ver Texto
(16)

PREÇI, Sokol; VYSHKA, Gentiam. Measuring the Amygdala; Otherwise Recycling Lombroso Theories One and Half Centuries Later. Anthropol, 2014, vol.2, n.o 2, p. 1.

Ver Texto
(17)

VAN BRAKEL, Rosamunde. Rethinking predictive policing: Towards a holistic framework of democratic algorithmic surveillance. En The Algorithmic Society. Routledge. 2020, p. 108.

Ver Texto
(18)

LUM, Kristian; ISAAC, William. «Predictive policing…», op. cit.

Ver Texto
(19)

Una ordenanza del Ayuntamiento de Nueva Orleans (2020) que prohíbe la policía predictiva la define como «el uso de software de análisis predictivo en la aplicación de la ley para predecir información o tendencias sobre criminalidad, incluidos, entre otros, el autor o autores, la víctima o víctimas, los lugares o la frecuencia de futuros delitos. No incluye, por ejemplo, el software utilizado para recopilar o mostrar estadísticas históricas de delincuencia con fines informativos».

Ver Texto
(20)

MIRÓ LLINARES, Fernando. «Policía predictiva: ¿Utopía o distopia? Sobre les actituds cap a l’ús d’algorismes de big data per a l’aplicació de la llei». IDP. Revista d’Internet, Dret i Política, 2020, n.o 30, https://doi.org/10.7238/idp.v0i30.3223.

Ver Texto
(21)

GONZÁLEZ ÁLVAREZ, José Luis.; LÓPEZ OSORIO, Juan José; MUÑOZ RIVAS, Marina. La valoración policial del riesgo de violencia contra la mujer pareja en España-Sistema VioGén, Gobierno de España, 2018, p. 38.

Ver Texto
(22)

Op. cit., p. 51.

Ver Texto
(23)

Otras definiciones de interés en KAUFMANN, Mareile; EGBERT, Simon; LEESE, Matthias. Predictive policing and the politics of patterns. The British journal of criminology, 2019, vol. 59, n.o 3, pp. 675 que la conceptúa como «prácticas policiales que crean patrones sobre el comportamiento delictivo que se reproducen por un algoritmo». Efectivamente, el programa recibe las experiencias policiales sobre las circunstancias en que se comete el delito o ANDREJEVIC, Mark. Digital citizenship and surveillance To Pre-empt a thief. International Journal of Communication, 2017, vol. 11, p. 87 «El uso de herramientas de minería de datos para predecir y anticiparse a la actividad delictiva».

Ver Texto
(24)

BACHNER, Jennifer. Predictive policing: preventing crime with data and analytics. Washington, DC: IBM Center for the Business of Government, 2013, p. 8.

Ver Texto
(25)

GONZÁLEZ ÁLVAREZ, José Luis González; HERMOSO, Jorge Santos; CAMACHO-COLLADOS, Miguel. Policía predictiva en España: aplicación y retos futuros. Behavior & Law Journal, 2020, vol. 6, n.o 1, p. 27. https://doi.org/10.47442/blj.v6.i1.75.

Ver Texto
(26)

En este sentido, como expone STĂNILĂ, PhD Laura Maria, op. cit., p. 140, la intervención a posteriori del delictum por parte de los órganos de investigación no es suficiente hoy en día para hacer frente a las nuevas formas de delitos y delincuentes.

Ver Texto
(27)

La STS n.o 91/2021, de 3 de febrero (LA LEY 1790/2021) configura la inteligencia policial como el conocimiento de «…, técnicas operativas delincuenciales en ciertos ámbitos, conocimiento de hechos similares que revelan un modus operandi de determinada mafia, crónica verificable de la historia de una organización criminal; etc… Son máximas de experiencias, reglas lógicas de valoración de documentos».

Ver Texto
(28)

NÓHPAL RODRÍGUEZ, Víctor Shaí. La posibilidad de la policía predictiva. Revista Mexicana de Ciencias Penales, 2021, vol. 4, n.o 14, p. 143.

Ver Texto
(29)

Como señala la SAN, secc. 1ª, n.o 11/2017, de 17 de marzo (LA LEY 22918/2017) «Las fuerzas y cuerpos de seguridad patrullan por la Red del mismo modo que sus agentes patrullan por las calles. No se puede confundir esta investigación legítima por los lugares públicos de las redes sociales, con una investigación prospectiva prohibida cuando afecte a los derechos fundamentales, ya sea al secreto de las comunicaciones, a la intimidad o a la inviolabilidad del domicilio, reconocidos en la Constitución».

Ver Texto
(30)

SOUTHERLAND, Vincent M. The intersection of race and algorithmic tools in the criminal legal system. Md. L. Rev., 2020, vol. 80, p. 497.

Ver Texto
(31)

VILLALOBOS FONSECA, Hazel. El desarrollo tecnológico en materia policial: una receta de éxito para la prevención del delito. Revista de relaciones internacionales, estrategia y seguridad, 2020, vol. 15, n.o 1, p. 84, destaca la iniciativa de un laboratorio israelí que desarrolló un software que permite el análisis de microexpresiones humanas, basada en principios de la neurociencia, para identificar comportamientos delictivos. Esta herramienta se centra en examinar terabytes de información, que son analizados en un procesamiento de datos masivo, para identificar comportamientos repetitivos en personas que han cometido delitos. «Los algoritmos de inteligencia artificial podrán analizar microexpresiones de transeúntes para anticipar situaciones delictivas».

Ver Texto
(32)

La justicia predictiva busca determinar cuál será la decisión de un juez o establecer niveles de riesgo que dan lugar a decisiones jurídicas que podrán recurrirse judicialmente. Destacan el programa norteamericano COMPAS que valora el grado de reincidencia del sujeto en diferentes etapas del proceso penal. El Tribunal Supremo de Wisconsin en State c. Loomis, 881 N.W.2d 749 (Wis. 2016) avaló dicho sistema aceptando que los tribunales sentenciadores pueden tener en cuenta el nivel de riesgo que dictamine COMPAS para la determinación de la pena, si bien no pueden utilizarlo para adoptar decisiones de encarcelamiento.

En España, el programa Riscanvi elaborado por instituciones penitenciarias de Cataluña, predice un riesgo asociado a la peligrosidad del individuo una vez que es condenado y produce efectos jurídicos vinculantes en materias como la concesión de permisos penitenciarios que puede impugnarse judicialmente. También en la esfera penitenciaria, la Orden de Servicio 3/2018, de la Secretaría General de Instituciones Penitenciarias ha desarrollado un sistema predictivo, tomando referentes internacionales para detectar el riesgo de reincidencia y radicalización yihadista de internos y que ayudan a tomar decisiones sobre ellos en materia de tratamiento penitenciario.

Ver Texto
(33)

Aunque ello pueda ocurrir como en el caso de VioGen.

Ver Texto
(34)

La predictividad legal busca establecer como reaccionará la sociedad ante la entrada en vigor de una norma, en particular si tendrá una aplicación práctica eficaz o será un ornamento que descansará en el texto escrito sin contacto con la realidad, si tendrá resistencias activas en la comunidad a su implantación y si afectará a otras normas. Vid VOLOKH, Eugene. Chief justice robots. Duke LJ, 2018, vol. 68, n.o 6, p. 1182 señala como la entrada en vigor de la ley exige determinadas predicciones.

Ver Texto
(35)

Hot spot.

Ver Texto
(36)

Predictive mapping.

Ver Texto
(37)

MUTSAERS, Paul; VAN NUENEN, Tom. Predictively policed: the Dutch CAS case and its forerunners. En Policing race, ethnicity and culture. Manchester University Press, 2023, p. 77.

Ver Texto
(38)

VINFOPOL «Policía Predictiva ¿ Cuáles son los últimos avances?». DOI: Policía Predictiva ¿Cuáles son los últimos avances? – VinfoPOL

Ver Texto
(39)

GONZÁLEZ-ÁLVAREZ et al, op. cit., p. 27 han indicado como la criminología ambiental ha demostrado que los criminales tienden a actuar en lugares que conocen (zona de confort) y no realizan grandes desplazamientos. Por otro lado, se ha acreditado que la distribución de los crímenes no es homogénea y está asociado a condiciones concretas.

Ver Texto
(40)

WITTEVEEN, Samuel, «Policía predictiva: cuando el que decide es un algoritmo». Artículo publicado en El Salto Diario, 22 de junio de 2022. DOI: https://www.elsaltodiario.com/ y AGUIRRE, Katherine; BADRAN, Emile; MUGGAH, Robert. Future Crime. Assessing twenty first century crime prediction. Igarapé Institute, strategic note n.o 33, 2019, p. 3.

Ver Texto
(41)

UCHIDA, Craig D; SWATT, Marc.L; SOLOMON, Shellie E; VARANO, Sean.Data-driven crime prevention: New tools for community involvement and crime control. Justice & Security Strategies, Incorporated, 2013, p. 6.

Ver Texto
(42)

Un antecedente artesanal de cartografía predictiva previo a la informática es el tradicional alfiler en la pared para identificar zonas de reincidencia criminal. Vid. GLUBA, A. Predictive policing. Eine Bestandsaufnahme. Historie, theoretische Grundlagen, Anwendungsgebiete und Wirkung. LKA Niedersachen.2015.

Ver Texto
(43)

SCHUILENBURG, Marc; SOUDIJN, Melvin. Big data policing: The use of big data and algorithms by the Netherlands Police. Policing: A Journal of Policy and Practice, 2023, vol. 17, p. 2.

Ver Texto
(44)

Centrada, como indica BARONA VILAR, Silvia. Dataización de la justicia (Algoritmos, Inteligencia Artificial y Justicia, ¿el comienzo de una gran amistad?). Revista Boliviana de Derecho, 2023, n.o 36, p. 30 en núcleos urbanos en que se valora la temperatura ambiente y la meteorología como factores de criminalidad.

Ver Texto
(45)

FERGUSON, Andrew Guthrie. Policing predictive policing. Wash. UL Rev., 2016, vol. 94, p. 1129.

Ver Texto
(46)

Desarrollado por William Bratton, Comisionado del Departamento de Policía de Nueva York («NYPD») y Jack Maple, Comisionado Adjunto de Estrategias de Control de la Delincuencia del NYPD por la preocupación existente ante la corrupción sistémica en la policía de New York y la presión política por combatir los altos niveles de delincuencia.

Ver Texto
(47)

Concretamente, robos con allanamiento de morada y de vehículos.

Ver Texto
(48)

Los sociólogos por ejemplo emplearon la cartografía para fijar una relación causal cuantificable entre la presencia de tabernas y la incidencia de delitos violentos y contra la propiedad. RONCEK, Dennis W.; PRAVATINER, Mitchell A. Additional evidence that taverns enhance nearby crime. Sociology and Social Research, 1989, vol. 73, n.o 4, pp. 185-188. Hoy en día serían las discotecas.

Ver Texto
(49)

El factor ambiental sigue vigente. En el año 2023 la fiscalía de Nueva Orleans, aprovechando una subvención federal de 127000 dólares adquirió un Modelo de Terreno de Riesgo vertebrado en torno a datos ambientales que se consideran muy relevantes. Las ubicaciones en que hay cerveza u otras bebidas alcohólicas, máquinas tragaperras y gasolineras se consideraban lugares de elevados riesgos en que se lleven a cabo delitos con uso de armas. Por el contrario, la calle St Claude, con un colegio, una carnicería y dos talleres de neumáticos arrojaban un factor de riesgo muy bajo y se identifica en el mapa con un color verde.

Ver Texto
(50)

Op. cit., pp. 8-9.

Ver Texto
(51)

BENNETT MOSES, Lyria; CHAN, Janet. Algorithmic prediction in policing: assumptions, evaluation, and accountability. Policing and society, 2018, vol. 28, n.o 7, p. 808.

Ver Texto
(52)

BENBOUZID, Bilel. Values and Consequences in Predictive Machine Evaluation. A Sociology of Predictive Policing. Science & Technology Studies, 2018, vol. 31, p. 121.

Ver Texto
(53)

BACHNER, op. cit., p. 26 refiere que la evaluación del Departamento de Santa Cruz en Estados Unidos indicó que el programa había tenido éxito en los robos con allanamiento de morada. Una comparación de los robos en julio de 2011 (se puso en marcha el programa en julio de 2010) indica un descenso del 27% (de 70 a 51). SOUTHERLAND, op. cit., p. 502 expone que el sistema predictivo tuvo un éxito inicial en la reducción de los delitos contra la propiedad en varias ciudades de California, ofreciendo asimismo buenos resultados iniciales en Seattle y Atlanta pero los mismos fueron poco concluyentes ya que la delincuencia repuntó tras los descensos iniciales. En Boston experimentó una reducción de los delitos violentos después de que la vigilancia policial se centrara en lugares en los que era más probable que se produjeran tiroteos.

El programa ATAC Workstation del departamento de policía de Richmond, analizó una serie de robos en parkings y concluyó que los incidentes se produjeron en aparcamientos situados en el centro de la ciudad, rodeados de edificios (en lugar de calles) y durante grandes eventos (ya que era cuando los vigilantes tenían dinero). La policía estableció vigilancia en los lugares objetivo y detuvo a los sospechosos.

Ver Texto
(54)

BENNET MOSES y CHAN, op. cit., p. 815 indican que en Estados Unidos el análisis predictivo desarrollado por proveedores privados (IBM SPSS, SAS, IBI y otros) aún no ha sido probado plenamente sobre el terreno por evaluadores independientes. En general, consideran que la comprensión de la eficacia de la actuación policial predictiva mejoraría con nuevas evaluaciones independientes y rigurosas.

Ver Texto
(55)

BACHNER, op. cit., p. 26 manifiesta que un factor de éxito como es el disuasorio ante la presencia policial es muy difícil de determinar «ya que no podemos calcular cuántos delitos se habrían cometido de no ser por la mayor presencia policial».

Ver Texto
(56)

En el programa predictivo PILOT (Predictive Intel de Inteligencia Predictiva) de la policía de Shreveport (Luisiana), señalan HUNT, Priscillia; SAUNDERS, Jessica; HOLLYWOOD, John S. Evaluation of the Shreveport predictive policing experiment. Santa Monica: Rand Corporation, 2014. p. 50 que si bien no se identificaron efectos positivos globales desde el punto de vista estadístico en los delitos contra la propiedad, los funcionarios de todos los distritos percibieron como ventajas que mejoraron las relaciones con la comunidad, y que las predicciones ayudaron a los mandos y oficiales a tomar decisiones cotidianas sobre los objetivos.

Ver Texto
(57)

LÓPEZ RIBA, José María. Inteligencia artificial y control policial: Cuestiones para un debate frente al hype. InDret: revista para el análisis del derecho, 2024, n.o 2, p. 417.

Ver Texto
(58)

CINELLI, Virginia; MANRIQUE, Alberto «El uso de programas de análisis predictivo en la inteligencia policial: una comparativa europea». Revista de Estudios en Seguridad Internacional, 2019, vol. 5, n.o 2, ,DOI:  http://dx.doi.org/10.18847/1.10.1, destaca que las violaciones o la venta de drogas se denuncian menos por lo que no pueden predecirse de manera rigurosa en un sistema basado en el tiempo y el espacio. RICHARDSON, Rashida; SCHULTZ, Jason M.; CRAWFORD, Kate. Dirty data, bad predictions: How civil rights violations impact police data, predictive policing systems, and justice. NYUL Rev. Online, 2019, vol. 94, p. 201 ponen de manifiesto que los grupos que se sienten menos favorables hacia la policía local son menos propensos a denunciar los delitos de los que son testigos.

Ver Texto
(59)

BENNET MOSES; CHAN, op. cit., p. 810 afirman que los datos que se recogen no siempre se categorizarán de forma precisa o coherente. RICHARDSON et al, op. cit., p. 201, refleja que incluso cuando se denuncian, los errores y sesgos en la forma en que la policía registra los delitos denunciados dan lugar a datos distorsionados. Pone como ejemplo que el Departamento de Policía de Los Ángeles (LAPD) registró erróneamente la cifra de 14.000 agresiones graves como delitos menores entre 2005 y 2012. Este error no se descubrió hasta 2015, cuando el LAPD ya había empezado a trabajar con la empresa de policía predictiva Predpol, aunque no hay pruebas que confirmen si estos datos erróneos se introdujeron en el sistema.

Ver Texto
(60)

Los white-collar crimes son crímenes de naturaleza no violenta y sofisticados en su ejecución que incluye, entre otros delitos, la corrupción pública, el fraude de valores, estafas o el blanqueo de capitales. RICHARDSON et al, op. cit., p. 219 señalan que diversos estudios reflejan que aproximadamente el 49% de las empresas y el 25% de los hogares han sido víctimas de delitos de cuello blanco, en comparación con una tasa de prevalencia del 1,06% en el caso de los delitos violentos y del 7,37% en el de los delitos contra la propiedad. Mientras la investigación y la policía predictiva se centra en estos, la investigación de los delitos de cuello blanco es limitada.

Ver Texto
(61)

LIGETI, Katalin. Artificial Intelligence and Criminal Justice. En AIDP-IAPL International Congress of. 2019. p. 8.

Ver Texto
(62)

Op. cit., pp. 502-504.

Ver Texto
(63)

Op. cit., pp. 17-18.

Ver Texto
(64)

Op. cit.

Ver Texto
(65)

Op. cit., p. 10.

Ver Texto
(66)

RICHARDSON, Rashida; SCHULTZ, Jason M.; CRAWFORD, Kate. Dirty data, bad predictions: How civil rights violations impact police data, predictive policing systems, and justice. NYUL Rev. Online, 2019, vol. 94, p. 199.

Ver Texto
(67)

El peligro persiste incluso aunque una fuente del sistema sean las denuncias ya que como advierte LÓPEZ RIVA, op. cit., p. 418 debe tenerse en cuenta el sesgo de quienes denuncian, en particular, el sesgo policial ya que numerosas denuncias son interpuestas por la policía como consecuencia de detenciones y cacheos.

Ver Texto
(68)

Op. cit.

Ver Texto
(69)

Op. cit., pp. 17-18.

Ver Texto
(70)

Op. cit., p. 199.

Ver Texto
(71)

SHAPIRO, Aaron. Reform predictive policing. Nature, 2017, vol. 541, n.o 7638, p. 459.

Ver Texto
(72)

Op. cit., p. 3.

Ver Texto
(73)

GALIS, Vasilis; KARLSSON, Björn. A world of Palantir-ontological politics in the Danish police’s POL-INTEL. Information, Communication & Society, 2024, p. 13 recogen las manifestaciones de los ingenieros de datos de Palantir respecto a que «con la ayuda de un repositorio centralizado de conceptos, construyen pipelines de datos de calidad con un conjunto de herramientas para supervisar y detectar anomalías en los datos que puedan contaminar la calidad de los datos (Palantir, 2021) y, de este modo, hacen evolucionar los conceptos en respuesta a las necesidades de los usuarios».

Ver Texto
(74)

Op. cit., pp. 502 y 503.

Ver Texto
(75)

En esta misma línea, para RICHARDSON et al, op. cit., p. 218, las practicas policiales con un sesgo racial producen un bucle de retroalimentación (Feedback loop) que puede reforzar la animadversión racial y los falsos estereotipos de violencia y criminalidad de determinados grupos raciales o étnicos.

Ver Texto
(76)

HUMERICK, Jacob D. Reprogramming fairness: Affirmative action in algorithmic criminal sentencing. HRLR Online, 2019, vol. 4, pp. 242-243 propone en el caso de la justicia predictiva aplicar un criterio de discriminación positiva aplicados en la admisión en las universidades. Considera que aún siendo situaciones diferentes, en ambos casos existe una situación de racismo institucional difícil de aprehender a primera vista. Los ciudadanos negros son condenados mayoritariamente como eran excluidos de las universidades al no superar el proceso de admisión antes de instaurar la discriminación positiva. Propone que la raza sea considerada como un factor positivo para una puntuación de riesgo más baja en el algoritmo. No comparto el argumento. La exclusión de la raza del sistema está justificada por exigencias de no discriminación aunque la precisión del programa se resienta pero no cabe confundir a un programa no discriminatorio, introduciendo datos falsos que cercenan de raíz su eficacia.

Ver Texto
(77)

Op. cit., p. 813.

Ver Texto
(78)

Como luego veremos articula la Policía Metropolitana de Londres.

Ver Texto
(79)

Op. cit., pp. 112-113.

Ver Texto
(80)

MANSUR, Fariha. Predictive Policing Using AI & ML for Domestic Law Enforcement: Critical Analysis & Framework Development in EU, Degree of International Master in Security, Intelligence and Strategic Studies, University of Glasgow, Charles University, 2023, p. 10.

Ver Texto
(81)

Person-Based Forecasting (PBF).

Ver Texto
(82)

Op. cit., p. 30.

Ver Texto
(83)

Parar y cachear, «Stop and frisk».

Ver Texto
(84)

Estados Unidos, Terry vs Ohio , 392.1 US 1968).

Ver Texto
(85)

Lista estratégica de sujetos.

Ver Texto
(86)

Financiada a través del programa de subvenciones de la Oficina de Asistencia Judicial del Departamento de Justicia.

Ver Texto
(87)

Op. cit., p. 208.

Ver Texto
(88)

Se incorporó en una época en que Nueva Orleans encabezó la sexta posición en los Estados Unidos por muertes generadas por una actividad de bandas. En el año 2013, la Fiscalía de Nueva Orleans elaboró dos escritos de acusación contra miembros de sendas bandas de la ciudad, 3NG y los 110ers, acusando a sus integrantes de 25 cargos de asesinato. Existió la sombra de sospecha de que Departamento de Policía presentó documentos generados por la corporación Palantir sin mencionar su fuente. En el juicio contra un pandillero llamado Evan «Easy» Lewis, el departamento presentó nada menos que 60.000 documentos que fijaban relaciones del acusado con miembros de otras pandillas. La prensa aportó una copia del contrato del Ayuntamiento con Palantir. Vid. «Palantir has secretly been using New Orleans to test its predictive policing technology». https://www.theverge.com/2018/2/27/17054740. El acuerdo en K12 168 Palantir Technologies – DocumentCloud. El Alcalde dictó una Ordenanza en el 2018 en la que se ponía fin al contrato. En su Ordenanza de 21 de julio de 2022 prohibió el empleo de la policía predictiva.

Ver Texto
(89)

The Chronic Offender Program (COP) que a su vez se integraba en el Programa Estratégico de Extracción y Restauración de los Ángeles.

Ver Texto
(90)

HUNG, Tzu-Wei; YEN, Chun-Ping. Predictive policing and algorithmic fairness. Synthese, 2023, vol. 201, n.o 6, p. 11.

Ver Texto
(91)

THOMAS, Christopher; PONTÓN-NUÑEZ, Antonio. Automating judicial discretion: How algorithmic risk assessments in pretrial adjudications violate equal protection rights on the basis of race. Law & Ineq., 2022, vol. 40, p. 376 exponen que se fundan en informes de «disuasión focalizada» para identificar algorítmicamente a los reincidentes potenciales de «alto riesgo» dentro de redes sociales «de riesgo».

Ver Texto
(92)

Op. cit., p. 501.

Ver Texto
(93)

BUENO DE MATA, Federico. Macrodatos, inteligencia artificial y proceso: luces y sombras. Revista General de Derecho Procesal, 2020, n.o 51, p. 3.

Ver Texto
(94)

También para BACHNER, op. cit., pp. 22-23 tal análisis criminológico ofrece una información muy útil. Señala que la delincuencia organizada, «…requiere la creación y el mantenimiento de diversas relaciones. Una red de tráfico de drogas, por ejemplo, puede incluir proveedores, distribuidores, asaltantes, compradores y blanqueadores de dinero. Además, las redes delictivas están integradas en el contexto social en el que operan; se nutren de los miembros de la comunidad, incluidos familiares, amigos y minoristas, y los victimizan. Un sistema predictivo puede cartografiar numerosas conexiones interpersonales y extraer de ellas información relevante».

Ver Texto
(95)

Columna publicada en US Today, op. cit. Aluden los autores a las críticas vertidas por destacados grupos de defensa de las libertades civiles, como la Unión Estadounidense por las Libertades Civiles.

Ver Texto
(96)

Que prohíbe la detención arbitraria.

Ver Texto
(97)

No hay una Resolución Judicial expresa en materia de policía predictiva pero si en la esfera de la justicia predictiva, en Malenchik c. el Estado de Indiana, 928 N.E.2d 564 (Ind. 2010) en que se avaló por Tribunal un sistema predictivo de riesgo (el LSI-R) por el que juez estableció la duración de la pena. Consideró que un sistema predictivo de riesgo mejora y complementa las decisiones de los jueces, y no deciden por sí mismo la condena de un acusado.

Ver Texto
(98)

FERGUSON, Andrew Guthrie. Predictive policing and reasonable suspicion. Emory LJ, 2012, vol. 62, pp. 321 y 324-325.

Ver Texto
(99)

Op. cit., p. 209.

Ver Texto
(100)

Así, afirman los autores que Chicago es un ejemplo de pruebas contundentes de que el sistema policial predictivo ha utilizado datos sucios. El Departamento de Policía de Chicago (CPD) tiene un largo y documentado historial de prácticas corruptas, abusivas y tendenciosas que se remontan a 1972, cuando un panel de expertos determinó que la mala conducta policial afectaba desproporcionadamente a los residentes de color. Tras la publicación de una cinta de vídeo que mostró un tiroteo que se cobró la vida de Laquan Mc Donald, un joven negro de 17 años, a manos de un agente de la policía de Chicago, y las posteriores protestas, se inició una exhaustiva investigación de un año por parte del Departamento de Justicia que concluyó que el CPD se involucró en un patrón de uso inconstitucional de la fuerza; deficiente recopilación de datos para identificar y abordar conductas ilícitas; deficiencias sistémicas en la formación y supervisión de agentes y en sistemas de rendición de cuentas que contribuyen a una práctica de conducta inconstitucional que afecta desproporcionadamente a los residentes negros y latinos. Una investigación del Departamento de Justicia sobre el Departamento de Policía de Nueva Orleans reveló que los agentes persiguieron y detuvieron indebidamente a residentes transexuales, a veces fabricando pruebas de un delito, así como explotando de forma arcaica «los delitos contra natura» para criminalizar conductas sexuales que los agentes consideraban moralmente inaceptables.

Ver Texto
(101)

Op. cit., p. 31.

Ver Texto
(102)

Op. cit., p. 11.

Ver Texto
(103)

Stop LAPD Spying Coalition. (2018). Before the Bullet Hits the Body: Dismatling Predictive Policing in Los Angeles, p. 37.

Ver Texto
(104)

Resumido en que «Ellos saben tu nombre y con quién andas».

Ver Texto
(105)

Op. cit., p. 3.

Ver Texto
(106)

Op. cit., p. 502.

Ver Texto
(107)

Vid LUM, Kristian; ISAAC, William. To predict and and serve?, op. cit. y SAUNDERS, Jessica; HUNT, Priscillia; HOLLYWOOD, John S. Predictions put into practice: a quasi-experimental evaluation of Chicago’s predictive policing pilot. Journal of experimental criminology, 2016, vol. 12, pp. 347-371.

Ver Texto
(108)

Op. cit., p. 32.

Ver Texto
(109)

THOMAS, Christopher; PONTON-NUNEZ, Antonio. Automating judicial discretion: How algorithmic risk assessments in pretrial adjudications violate equal protection rights on the basis of race. Law & Ineq., 2022, vol. 40, p. 376 indican que la policía se dirige a los integrantes de estas listas con servicios sociales o, lo que es más habitual, con contactos policiales o detenciones por delitos menores, como forma de disuadirles supuestamente de cometer delitos en el futuro.

Ver Texto
(110)

BENNET MOSES y CHAN, op. cit., p. 809 indican que Predpol es más trasparente que otros productos de software desplegados en la policía predictiva. Señalan que no existe una evaluación adecuada de los diferentes productos proporcionados por organizaciones como IBM (por ejemplo Blue CRUSH en Memphis y Blue PALMS en Miami, Information Builders (Law Enforcement Analytics), Azavea (HunchLab),SPADAC(Signature Analyst®), Accenture e Hitachi.

Ver Texto
(111)

Op. cit., p. 38.

Ver Texto
(112)

Op. cit., p. 25. El autor describe el programa predictivo del Departamento de Policía de Santa Cruz, uno de los primeros del país en emplear a partir del 2011 una policía predictiva en sus operaciones diarias. El software fue desarrollado por investigadores de las universidades de California, los Ángeles y Santa Clara, con la colaboración de analistas de la delincuencia del Departamento. El algoritmo calcula la probabilidad del delito sobre la base de incidentes delictivos anteriores que recogen día, hora, lugar y delito. El programa genera un mapa en que destacan 15 casillas con las probabilidades más altas de reincidencia. Los agentes son animados a vigilar las 15 zonas con más frecuencia como un complemento de su actividad.

Ver Texto
(113)

En el otro lado, nos encontramos con quienes desconfían de las máquinas o la Inteligencia Artificial y consideran que las mismas se apropian de cualidades humanas y, en concreto, se cuestionan si la policía predictiva aporta realmente un plus a la labor paciente, artesanal y exclusivamente humana de la inteligencia policial; en definitiva, si enseña a los policías especializado algo que no sepan. Una de las razones por las que el programa Predpol suscita críticas fue, señala LIGETI, op. cit., pp. 7-8 porque «esencialmente proporcionaba información que ya estaba siendo recopilada por los agentes que patrullan las calles...».

Ver Texto
(114)

HAMILTON, Melissa. Evaluating algorithmic risk assessment. New criminal law review, 2021, vol. 24, n.o 2, p. 181.

Ver Texto
(115)

CRAWFORD, Kate. The hidden biases in big data. Harvard business review, 2013, vol. 1, n.o 4, p. 3.

Ver Texto
(116)

También NISHI, Andrea. Privatizing sentencing: A delegation framework for recidivism risk assessment. Colum. L. Rev., 2019, vol. 119, p. 1686 describe a quien padece el sesgo como alguien con una «falsa sensación de objetividad» sobre las predicciones algorítmicas que cree que la lógica y la certeza se extiende como un mantra sobre cualquier algoritmo y ANDERSON, Cahoime Marie. The Impact of Algoritmo in Criminal Sentencing on Due process Rights. 2019. Tesis Doctoral. Queen’s University Belfast, p. 108 quien advierte del riesgo de que el sesgo convierta a los usuarios del sistema en «selladores» de decisiones automatizadas.

Ver Texto
(117)

Op. cit., p. 504.

Ver Texto
(118)

HARDYNS, Wim; RUMMENS, Anneleen. Predictive policing as a new tool for law enforcement? Recent developments and challenges. European journal on criminal policy and research, 2018, vol. 24, p. 214 explican que «la privatización de las tareas policiales es controvertida porque el primer objetivo de una empresa comercial es ser rentable» lo que puede tener consecuencias en ámbitos cruciales como la privacidad y la seguridad. «Un contraargumento es que esto no debe verse exclusivamente como una amenaza, sino también como una oportunidad para que la policía se centre en sus tareas y responsabilidades».

Ver Texto
(119)

Op. cit., pp. 811 y 815.

Ver Texto
(120)

Así, es de interés saber que se emplean atributos generales como ser «joven» o «varón» cuando otra variable como «agresivo» y que el sistema no ha capturado, sería más precisa.

Ver Texto
(121)

Op. cit., p. 9.

Ver Texto
(122)

KUBLER, Kyle. State of urgency: Surveillance, power, and algorithms in France’s state of emergency. Big Data & Society, 2017, vol. 4, n.o 2, pp. 9-10.

Ver Texto
(123)

El programa fue obra de un ex comisario de la polizia (Mario Venturi) especializado en la investigación de robos en comercios y entidades bancarias.

Ver Texto
(124)

Op. cit., pp. 10 y 11.

Ver Texto
(125)

MASTROBUONI, Giovanni. Crime is terribly revealing: Information technology and police productivity. The Review of Economic Studies, 2020, vol. 87, no 6, p. 2737-2739

Ver Texto
(126)

Sistema de Anticipación del delito.

Ver Texto
(127)

MANSUR, op. cit., pp. 50-51 señala también que la policía utiliza los programas de Riesgo de Extremismo Violento 2 Revisada (VERA-2R) que prevé una valoración de riesgos con indicadores fijos como las creencias, contexto social, historia, compromiso y motivación al que pueden unirse unas variables para individualizar el estudio. Asimismo, aplica el programa de Radicalización Islámica 46 (IR46) que alerta a la policía sobre aquellas personas de la comunidad islámica con un nivel mayor de radicalización. El sistema clasifica la radicalización en cuatro niveles de gravedad, fase preliminar, distanciamiento social, yihadización y, por último, yihad/extremismo. Para ello se emplean 46 variables que determinan el contexto social y la ideología, pudiendo los agentes de policía añadir más información.

Ver Texto
(128)

MUTSAERS y NUENEN, op. cit. p. 77 reflejan que el CAS sintetiza big data y tecnología geoespacial. Los datos se obtienen del sistema nacional de información policial que contiene los reincidentes y del Instituto Nacional de Estadística de los Países Bajos que proporciona datos socioeconómicos y demográficos sobre sexo, etnia (número de minorías no occidentales), edad e ingresos/población. CINELLI y MANRIQUE, op. cit., pp. 12-13 indican que el sistema también se nutre de información que se obtiene de redes sociales.

Ver Texto
(129)

Como expuso un policía de Baviera a los autores «Para nosotros era muy, muy importante que la última decisión la tomara un ser humano, en realidad un colega, y no una máquina». VEPŘEK et al, op. cit., p. 434.

Ver Texto
(130)

Op. cit., pp. 7 y 9.

Ver Texto
(131)

Op. cit., p. 79.

Ver Texto
(132)

EGBERT y KRASSMANN , op. cit., p. 11. señalan que el CAS Introduce el color de la piel y los rasgos faciales como una variable relacionada con la delincuencia.

Se ha reprochado que el programa predictivo «Project Sensing» de la Policía Nacional neerlandesa, utilizada sobre todo en la ciudad de Roermond, según MANSOUD, op. cit., p. 63, contenía un sesgo hacia los europeos de países del Este. El programa se centra en la lucha contra los hurtos en tiendas, y aunque Amnistía Internacional afirmó que el 60 por ciento de los sospechosos eran neerlandeses, el sistema se centraba desproporcionadamente en personas y vehículos de origen europeo oriental cuyos datos recopilaba y analizaba. Cuando alguno de estos vehículos entraba en una zona comercial de la ciudad se activaba una alarma y la policía podía interceptar el vehículo.

Ver Texto
(133)

Op. cit., pp. 10-11.

Ver Texto
(134)

Indica BALOGH, D. A. Near Repeat-Prediction mit PRECOBS bei der Stadtpolizei Zürich. Kriminalistik, 2016,vol. 70, n.o 5, p. 336P que Precob se denominó inicialmente Precog (Precoginitive) como en Minority Report. Se cambió rápidamente.

Ver Texto
(135)

Con la excepción del programa RADAR-iTE. «Análisis basado en reglas de delincuentes potencialmente destructivos para la evaluación del riesgo agudo de terrorismo islamista». El mismo se ha desarrollado por la Oficina Federal de Policía Criminal (Bundeskriminalamt, BKA) en cooperación con psicólogos de la Oficina Federal de Policía Criminal y de la Universidad de Constanza. El programa parte de la vigilancia de personas y recopilación de información. Posteriormente se lleva a cabo un cuestionario que gira en torno a 70 indicadores de riesgo que valoran aspectos como los antecedentes criminales, los desplazamientos a países de riesgo, enfermedades mentales y el acceso a armas. Como consecuencia se ofrece un resultado de riesgo de elevado, en progreso y moderado que se comunica a los agentes. ITÄLUNNI, Jarno. Development of the RADAR-iTE instruction card for operational and educational purposes. Laurea. University of apllied sciences, 2018, ADOWSKI, Friederike, et al. RADAR-iTE 2.0: An Instrument of the German State Protection-Structure, Development and Current Stage of Evaluation. En Terrorism Risk Assessment Instruments. IOS Press, 2021. pp. 223-235.

Ver Texto
(136)

Sistema de Observación Previa al Crimen. Fue elaborado por la empresa privada «Institut für musterbasierte Prognosetechnik». Está muy difundido en Alemania. Además de en Baviera, el software se emplea en landers como Baden-Wuerttemberg y en la Baja Sajonia. También en Suiza en las policías cantonales de Basilea, Zug y Zúrich.

Ver Texto
(137)

System zur Kriminalitätsauswertung und Lageantizipation, engl.: Sistema para el análisis criminal y la participación. Se utiliza en Renania del Norte-Westfalia. CINELLI y MANRIQUE, op. cit., pp. 13-15 expone que Skala se aplica a los asaltos en viviendas y a los robos en establecimientos comerciales y de vehículos. «A los datos sobre los delitos ocurridos en el pasado añade información sobre el nivel socioeconómico, la renta per cápita, porcentaje de desempleo y media de edad de los residentes locales (datos socioeconómicos). El software valora aspectos como la presencia de autopistas o estaciones de tren y/o autobús, ligando este hecho a la probabilidad de que los delincuentes tengan más facilidad para evadirse tras la comisión de un delito».

Ver Texto
(138)

Kriminalitätsprognose que se emplea en Berlín.

Ver Texto
(139)

EGBERT, Simon; KRASMANN, Susanne. Predictive policing: Not yet, but soon preemptive? Policing and society, 2020, vol. 30, n.o 8, pp. 912 y ss.

Ver Texto
(140)

NÓHPAL RODRÍGUEZ, op. cit., p141 señala que son tres los factores para que el delito se cometa en el mismo lugar «Un delincuente motivado, un objetivo apropiado y ausencia de vigilancia».

Ver Texto
(141)

En Dinamarca, GALIS, Vasilis; KARLSSON, Björn. A world of Palantir-ontological politics in the Danish police’s POL-INTEL. Information, Communication & Society, 2024, p. 15 exponen que los sistemas cartográficos del sistema predictivo de la policía danesa (POL-INTEL) se basan en la e-ontología de la plataforma, es decir, en cómo se visualizan los delitos, pero también en las acciones del agente de policía que selecciona los filtros para identificar delitos específicos, intervalos de fechas y representarlos visualmente de diversas formas.

Ver Texto
(142)

Op. cit., p. 435.

Ver Texto
(143)

Op. cit., p. 438. Un responsable policial de Renania manifestó «Se te pasa la borrachera relativamente rápido cuando te das cuenta de que se trata de números y probabilidades».

Ver Texto
(144)

Op. cit., pp. 78-79.

Ver Texto
(145)

CINELLI y MANRIQUE, op. cit., p. 13 explican que se realizó una auditoría externa de PRECOBS por parte del Instituto Max Planck de Legislación Criminal Internacional entre octubre de 2015 y abril de 2016, la cual obtuvo resultados dispares. Durante los meses que duró la evaluación el número de robos en viviendas en la ciudad de Stuttgart pasó de 580 a 458, resulta del todo imposible verificar que dicha reducción se debiera únicamente a la implementación del software. Variables como el número de patrullas efectivamente desplegadas en las zonas marcadas por PRECOBS o el hecho de que los datos de robos venían de una tendencia descendente desde el año 2014, imposibilitan apreciar de manera clara la efectividad del software.

Ver Texto
(146)

Un representante de la oficina de investigación criminal del estado de Baviera señaló «no se puede asignar el éxito al software». Expone que el sistema es una pieza más y hay que tocarlas todas para que suene con armonía. VEPŘEK, Libuše Hannah, et al. Beyond effectiveness: legitimising predictive policing in Germany. Kriminologie-Das Online-Journal| Criminology-The Online Journal, 2020, n.o 3, pp. 424-425.

Ver Texto
(147)

CINELLI y MANRIQUE, op. cit., p. 12 indican que una evaluación interna llevada a cabo por la policía de Kent en 2014, reveló que Predpol acertaba en un 11% de las ocasiones en las que designaba una localización como probable de que se produjese la comisión de un delito, alcanzado 10 veces más la probabilidad de predecir la localización del crimen que por medio de patrullas aleatorias. La pregunta es si ello es porque la policía estaba más tiempo en dichas zonas.

Ver Texto
(148)

MOHLER, George O, et al. Randomized controlled field trials of predictive policing. Journal of the American statistical association, 2015, vol. 110, n.o 512, pp. 13-14 y 18.

Ver Texto
(149)

Siguiendo así el Modelo Nacional de Inteligencia del Reino Unido.

Ver Texto
(150)

La Unidad de Mando Básico de Trafford mostró una reducción del 26,6% (-327 robos domésticos) en comparación con los 12 meses anteriores a la aplicación, superando a sus grupos más similares dentro de la Policía de Greater Manchester y a nivel nacional. Vid. FIELDING, Matthew; JONES, Vincent. «Disrupting the optimal forager»: predictive risk mapping and domestic burglary reduction in Trafford, Greater Manchester. International Journal of Police Science & Management, 2012, vol. 14, n.o 1, pp. 30-41. En Leeds, el programa k-means, EZEH, Christopher. The use of spatial analytical techniques to highlight the geography of burglary in Leeds, UK. Gazi University Journal of Science Part B: Art Humanities Design and Planning, 2021, vol. 9, n.o 2, p. 129, indica que la mayor parte de los robos se producen en la parte central suroeste de Leeds, que es el centro de la ciudad, con gran actividad empresarial, población de gran diversidad y residencias.

Ver Texto
(151)

Op. cit., pp. 69 y 73

Ver Texto
(152)

Cabría asignar un punto por visitar un punto conflictivo y otro más por pasar delante de una tienda local con antecedentes de robos. Los agentes con más puntuación recibirían incentivos económicos y honoríficos.

Ver Texto
(153)

Son muy gráficas las manifestaciones de un responsable policial que recogen SANDHU, Ajay; FUSSEY, Peter. The «uberization of policing»? How police negotiate and operationalise predictive policing technology. Policing and society, 2021, vol. 31, n.o 1, p. 75 «es probable que los robos producidos en centros comerciales se concentren en los centros comerciales... ¡No me digas!».

Ver Texto
(154)

DODD, Vikram. Police gang strategy’targets people unlikely to commit violence». Artículo publicado en The Guardian, 7 de mayo de 2018indica como el origen se encuentra en los disturbios de 2011, que se iniciaron en Londres y se extendieron por toda Inglaterra tras comenzar en la zona de Tottenham, en Haringey. El Gobierno culpó a las bandas de la violencia, a pesar de que la policía creía que solo una minoría de los implicados pertenecían a las mismas.

Ver Texto
(155)

Information Commissioner’s Office (ICO).

Ver Texto
(156)

Negros, asiáticos y minorías étnicas.

Ver Texto
(157)

Criminal Behaviour Order que concede un Juez por la que, entre otras restricciones, se puede prohibir al individuo realizar actos preparatorios que le pueden llevar al delito como por ejemplo entrar en determinadas zonas.

Ver Texto
(158)

VIKRAN, op. cit., indica como los críticos a Gang Matrix señalan que estar etiquetado en la matriz implicaba que se retiraban poco a poco todos los servicios a esa persona y a su familia.

Ver Texto
(159)

Harm Assessment Risk. Elaborado por Durham Constabulary, en colaboración con académicos de la University of Cambridge.

Ver Texto
(160)

OSWALD, Marion; GRACE, Jamie; URWIN, Sheena; BARNES, Geoffrey C. Algorithmic risk assessment policing models: lessons from the Durham HART model and «Experimental’proportionality. Information & communications technology law, 2018, vol. 27, n.o 2, p. 228.

Ver Texto
(161)

Que fue alimentado con un total de 105.755 incidentes delictivos.

Ver Texto
(162)

CAMACHO-COLLADOS, Miguel; LIBERATORE, Federico. A decision support system for predictive police patrolling. Decision support systems, 2015, vol. 75, pp. 25-37. Miguel Camacho-Collados es matemático y policia, y autor de una tesis doctoral en la materia. CAMACHO COLLADOS, Miguel. Statistical analysis of spatio-temporal crime patterns: Optimization of patrolling strategies. Tesis doctoral, Universidad de Granada, 2016. digibug.ugr.es/bitstream/handle/10481/44557/26134081.pdf.

Ver Texto
(163)

Señala la corporación que «El sistema utiliza modelos y algoritmos matemáticos por lo que abre un mundo de posibilidades para la policía, le permite exprimir más la información y usarla para desarrollar modelos predictivos "mirando al futuro echando un vistazo al pasado" a fin de prever dónde y cuándo serán los próximos atracos y delitos.

Ver Texto
(164)

GIMENO BEVIÁ, Jordi. Instrumentos actuales de policía y justicia predictiva en el proceso penal español: Análisis crítico y reflexiones de lege ferenda ante aplicaciones futuras. Estudios penales y criminológicos, 2023, vol. 44, pp. 5-6.

Ver Texto
(165)

En relación al sistema empleado por la Policía Municipal de Rivas, un sargento expuso a los medios de comunicación en el año 2016 «No es "Minority report" ni "Matrix", Lo que vamos a experimentar es un software vía web que se nutre de datos (día de la semana, temperatura, concentración de centros comerciales, etc.) y que al aplicar algoritmos facilita la predicción de actos delictivos».

Ver Texto
(166)

Aprobado por la Instrucción 7/2016 de la Secretaria de Estado de Interior y modificado por las instrucciones n.o 4/2019 y 5/2021.

Ver Texto
(167)

PRESNO LINERO, Miguel. Inteligencia artificial, policía predictiva y prevención de la violencia de género. Revista internacional de vitimologia e justiça restaurativa, 2023, vol. 1, n.o 2, p. 103 indica que «los casos en los que no se advirtió riesgo y, efectivamente, no hubo agresiones sería muy alto (más del 98%) y muy bajo el positivo —supuestos en los que se pronosticó agresiones y las hubo— (solo el 8,7)». Ello resulta lógico porque si se advierte riesgo de agresión, se toman medidas para evitarlas.

Ver Texto
(168)

PRESNO LINERO, op. cit. p, 98 indica que esta herramienta predictiva no es, en rigor, «inteligencia artificial», pues no usa algoritmos que «aprenden» (machine learning) a base del procesamiento de datos, sino que es «un sistema actuarial que utiliza modelos estadísticos para inferir el riesgo que puede correr una víctima (tanto de agresión como de homicidio) así como su evolución con base en un conjunto de indicadores que han sido determinados y posteriormente evaluados por un grupo de expertos». No obstante, podría considerarse un sistema de IA en un sentido «impropio» y no está descartada la incorporación de un algoritmo de autoaprendizaje.

Ver Texto
(169)

La memoria de la Fiscalía del año 2023, p. 528, recoge que preocupa en Álava que la «Ertzaintza no incorpore al atestado la tabla de ítems valorados para la determinación del riesgo, ni que remitan a la Fiscal delegada los casos en que se aprecie una agravación policial del riesgo, con la finalidad de solicitar las medidas judiciales de protección más adecuadas, así como la falta de coordinación entre aquella y la policía local que está suponiendo que, en algunos atestados no se una el informe de valoración de riesgo».

Ver Texto
(170)

La Sala destaca la existencia de registros telefónicos y audios que confirman los hechos relatados.

Ver Texto
(171)

El AAP de Madrid, secc. 27ª, n.o 145/2024, de 25 de enero (LA LEY 49428/2024) manifiesta que los datos que recoge VioGen están en constante actualización, integrándose tecnológicamente toda la información sobre un caso o la víctima.

Ver Texto
(172)

Op. cit., p. 98.

Ver Texto
(173)

El AAP de Pontevedra, secc. 4ª, n.o 18/2024 (LA LEY 55010/2024), de 19 de enero recoge como un informe VioGen con riesgo «bajo» es elevado a «medio». Se basa para ello la Guardia Civil en la entrevista mantenida con la víctima que indicó como al teletrabajar en su domicilio precisa de una protección extra por estar mucho tiempo sola en casa. A ello se unieron varias incidencias habidas con el dispositivo que revelan falta de responsabilidad del detenido con la llevanza del mismo. El AAP de Pontevedra, secc. 4ª, n.o 731/2022 (LA LEY 419102/2022), de 9 de diciembre indica también como el resultado de VioGen fue elevado por el analista.

Ver Texto
(174)

P. 528.

Ver Texto
(175)

BORGES BLÁZQUEZ, Raquel. Algoritmización de la concesión de medidas cautelares en el proceso penal para la protección de víctimas de violencia de género. ¿ Es capaz VIOGEN de interpretar el «periculum in mora»?, Actualidad jurídica iberoamericana, 2024, n.o 41, p. 403.

Ver Texto
(176)

En otros supuestos se habla de que VioGen ha empleado «Indicadores» para llegar a su predicción sobre la reincidencia si bien las resoluciones no especifican cuales sean estos indicadores, como ocurre en el AAP de Madrid, secc. 26ª, n.o 1179/2023, de 28 de junio (LA LEY 291006/2023).

Ver Texto
(177)

El AAP de Madrid, secc. 27ª, n.o 1164/2022, de 13 de julio (LA LEY 382158/2022) recoge como el telemático informe de alerta de Viogen describe que el hoy recurrente hizo comentarios irrespetuosos y amenazantes hacia la víctima y otra persona, reconociendo no arrepentirse de haberles golpeado cuando lo hizo, considerando que se lo merecía y manifestando que « de lo único que se arrepentía es de no haberlos matados a los dos; como la vea lo hará y le dan igual las consecuencias ».

Ver Texto
(178)

Así, el AAP de Madrid, secc. 27ª, n.o 203/2024, de 1 de febrero (LA LEY 89979/2024) confirma la prisión. Además de los indicios de criminalidad, añade que VioGen califica el riesgo de alto atendiendo «a la violencia física muy grave, al empleo de armas u objetos contra la víctima, un arma blanca, la existencia de amenazas como muy graves, además de aludir que la víctima tenía su cargo hijos menores de edad».

Ver Texto
(179)

El AAP de Cádiz, secc. 3ª, n.o 147/2023 (LA LEY 192968/2023), de 23 de marzo confirma la orden de protección. Se da crédito a la declaración de la víctima avalada por el dictamen forense al que se une el informe de VioGen que califica el riesgo como «Alto de especial relevancia» al haberse detectado en el plan individualizado de esta víctima una combinación de factores que aumentan exponencialmente el riesgo para la mujer y sus hijos multiplicado por ocho, concurriendo en dicho investigado la situación de agresor persistente, pues le constan denuncias y antecedentes en el sistema VioGen procedentes de denuncias anteriores de otras mujeres, y una condena por violencia de género» .

Ver Texto
(180)

El AAP de Pontevedra, secc. 4ª, n.o 731/2022 (LA LEY 419102/2022), de 9 de diciembre manifiesta que «se ha valorado como un dato más a tener en cuenta». También para el AAP de Madrid, secc. 26ª, n.o 1283/2022 de 5 de agosto (LA LEY 408036/2022) VioGen es un «punto más».

Ver Texto
(181)

El AAP de Madrid, secc. 27ª, n.o 145/2024, de 25 de enero (LA LEY 49428/2024), confirma la orden judicial de alejamiento. El sistema VioGen no fue decisivo. Prevaleció para la Resolución el hecho de haberse intervenido al detenido armas y municiones, indicando los agentes que, en la ubicación donde fueron detectadas no existían armarios de seguridad, ni una correcta custodia de ese armamento.

Ver Texto
(182)

El AAP de Cádiz, secc. 3ª, n.o 358/2020 (LA LEY 330069/2020), de 30 de junio indica que una valoración de riesgo «bajo» del sistema VioGen no excluye que se ratifique la orden de protección ante todos los indicios concurrentes, en concreto, las expresiones amenazantes realizadas y las agresiones físicas padecidas, a lo que se une un temor evidente de la víctima y el AAP de Cádiz, secc. 3ª, n.o 515/2021 (LA LEY 415531/2021), de 21 de octubre confirma la medida cautelar aunque VioGen no aprecia riesgo. La Sala valora que la declaración de la víctima exterioriza temor, hay menores vulnerables y los hechos son graves.

Ver Texto
(183)

El AAP de Cádiz, secc. 3ª, n.o 463/2022 (LA LEY 439796/2022), de 13 de diciembre reprocha a la juzgadora de instancia no valorar el informe VioGen que arroja un riesgo medio y «en consecuencia la existencia de una probable reiteración delictiva» como tampoco lo hace del temor exteriorizado de la denunciante a su marido, considerando que la resolución recurrida se adelanta al juicio en una función cuasi-probatoria al no darle verosimilitud.

Ver Texto
(184)

Memoria de la Fiscalía del año 2008, pp. 583 y 584.

Ver Texto
(185)

CORRAL, Miguel A, publicó el 1 de septiembre de 2019 un artículo en el Diario el Mundo con el título «El algoritmo de la Guardia Civil que caza a los pirómanos». Se señala que el programa se configura como «una herramienta estadística —basada en redes bayesianas— que se alimenta de los casos reales resueltos por los investigadores policiales. Se recogen las declaraciones del capitán de la Guardia Civil Andres Sotoca «Cuantos más casos bien documentados haya en la base de datos, mejor funcionará. El objetivo es que el investigador pueda hacer un perfil para atrapar al autor en casos sin esclarecer. El algoritmo te dice qué tipo de autor tienes que buscar y el grado de probabilidad asociado».

Ver Texto
(186)

HARCOURT, Bernard E. Against prediction: Profiling, policing, and punishing in an actuarial age. University of Chicago Press, 2019, p. 16. resalta los instrumentos de predicción que aplican métodos estadísticos sobre grandes conjuntos de datos de tasas de delincuencia con el fin de determinar los diferentes niveles de delincuencia asociados a un grupo o a uno o más rasgos del grupo y, sobre la base de esas correlaciones, predecir el comportamiento delictivo pasado, presente o futuro de una persona concreta. En la misma línea, SUAREZ XAVIER, op. cit., p. 4 advierte que «la concepción del funcionamiento de las técnicas policiales predictivas presupone la necesidad de crear, mantener y ampliar bases de datos relacionadas no solo con las políticas y estadísticas criminales, sino también con datos personales, capaces de indicar preferencias políticas, de edad, posición social y económica, entre otras».

Ver Texto
(187)

SCHLEHAHN, Eva; AICHROTH, Patrick; MANN, Sebastian; SCHREINER, Rudolf; SHEPHERD, Ifan; WILLIAM WONG, B.L. Benefits and pitfalls of predictive policing. European intelligence and security informatics conference. IEEE, 2015, pp. 146-147.

Ver Texto
(188)

Op. cit.

Ver Texto
(189)

De 27 de abril de 2016 relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de dichos datos durante la detección, la investigación o el enjuiciamiento de infracciones penales.

Ver Texto
(190)

Art. 3.4.

Ver Texto
(191)

Considerando 38.

Ver Texto
(192)

Op. cit., p. 575.

Ver Texto
(193)

LÓPEZ-OSSORIO, Juan José; LOINAZ, Ismael; GONZÁLEZ-ÁLVAREZ, José Luis. Protocolo para la valoración policial del riesgo de violencia de género (VPR4. 0): revisión de su funcionamiento. Revista Española de Medicina Legal, 2019, vol. 45, n.o 2, p. 53, indican que se procede a dar de baja en el sistema VioGen, siempre que se den los supuestos legales para ello y en cumplimiento de las normas sobre protección de datos personales (Entonces la Ley Orgánica de Protección de Datos (15/1999), como en cualquier otra base de datos. Se señala que «Naturalmente, si desgraciadamente se produce un nuevo episodio violento entre la pareja y se formula una nueva denuncia, se vuelve a reactivar todo el protocolo de seguimiento y de protección policial, tantas veces como sea necesario».

Ver Texto
(194)

Las entradas registraban el nombre, su presencia en un acto, su fecha de nacimiento, su dirección y, a veces, su apariencia.

Ver Texto
(195)

STEDH, M.M. c. el Reino Unido, n.o 24029/07, de 13 de noviembre de 2012.

Ver Texto
(196)

El voto concurrente de los jueces Koskelo y Felici concluyeron que la ley británica carecía de calidad «el marco jurídico nacional, sobre una base extremadamente vaga e inespecífica, ha permitido el tratamiento de datos personales sensibles sin garantías efectivas. La importancia crucial de la calidad de la ley en un contexto como el actual puede ponerse de relieve, de la forma más sencilla, señalando que los principios generales de la ley de protección de datos —como los que exigen que el tratamiento sea necesario para la finalidad del tratamiento, y que los datos que se traten sean adecuados, pertinentes y no excesivos en relación con dicha finalidad se diluyen, posiblemente hasta el punto de la irrelevancia práctica, cuando la finalidad en sí misma queda sin ninguna definición o limitación significativa».

Ver Texto
(197)

La Data Protection Acts 1998 and 2018 y el Code of Practice on the Management of Police Information.

Ver Texto
(198)

Del Parlamento y del Consejo Europeo de 13 de junio de 2024 por el que se establecen normas armonizadas en materia de inteligencia artificial.

Ver Texto
(199)

Art. 6.3.

Ver Texto
(200)

La figura del testigo-perito o testigo experto se acepta pacíficamente por la Sala 2ª del TS en la ratificación y defensa en juicio de cualquier informe de inteligencia. En este sentido, la STS n.o 65/2019, de 7 de febrero (LA LEY 4814/2019) expone que la prueba de inteligencia se ha articulado como pericial y testifical en razón a la duplicidad de quien así declara en juicio oral, ya que el agente policial que elabora el informe conoce el contenido de la materia y en consecuencia lo hace por sus conocimientos científicos, pero también actúa como testigo en razón de lo que sabe. En el mismo sentido la STS n.o 64/2021, de 28 de enero (LA LEY 815/2021) que expone «En cualquier caso, es preciso hacer el matiz acerca de las reservas que tienen que hacerse de este medio de prueba, en tanto se articula más y mejor por la vía del testigo experto».

Ver Texto
(201)

También se ponderó el informe VioGen en el Auto de sobreseimiento provisional confirmado por la Audiencia de Granada en Auto, secc. 2ª, n.o 252/2023 de 31 de marzo (LA LEY 364293/2023). Se archiva la causa aunque el informe de VioGen es de riesgo alto porque sólo existe una grabación de muy poca calidad, poco precisa y significativa en que a él se le oye decir «te voy a pisar la cabeza» y ella divertida le dice que «tiene contactos». La denunciante se refiere a más grabaciones que, incompresiblemente, dice el Auto, no se han aportado al procedimiento, señalando que de haberlas oído «… quizás habría arrojado a la Policía más elementos para la correcta valoración del riesgo calificado como "alto" que elaboraron los agentes utilizando los protocolos viogen al uso con la sola audiencia de la denunciante».

Ver Texto
(202)

Informe del Committee on Civil Liberties, Justice and Home Affairs </Commission> del Parlamento Europeo de 13 de julio de 2021 sobre «artificial intelligence in criminal law and its use by the police and judicial authorities in criminal matters».

Ver Texto
(203)

Alude el informe al modelo norteamericano destacando que varias ciudades de los Estados Unidos han puesto fin a su uso de sistemas de vigilancia policial predictiva después de las auditorías y que los departamentos de policía de la ciudad de Nueva York y de Cambridge, Massachusetts, han suprimido progresivamente sus programas de policía predictiva debido a su falta de eficacia, su impacto discriminatorio y su fracaso práctico, y que en su lugar han optado por la policía de proximidad y que ello ha disminuido los índices de delincuencia.

Ver Texto
(204)

Considerando 42.

Ver Texto
(205)

Excepciona por no estar basado en perfiles de la persona o rasgos de la personalidad los sistemas de IA de análisis de riesgos para evaluar fraudes financieros en transacciones sospechosas y los que predicen la probabilidad de localización de estupefacientes y mercancías ilícitas por parte de las autoridades aduaneras, por ejemplo basándose en las rutas de tráfico conocidas.

Ver Texto
(206)

El Reglamento acepta incluir el lugar de nacimiento lo que trae a colación un factor que puede ser conflictivo desde la perspectiva de la no discriminación como es la nacionalidad.

Ver Texto
(207)

Tampoco el sexo.

Ver Texto
(208)

GLESS, Sabine. Predictive policing. In defence of «true positives». BEING PROFILED:COGITAS ERGO SUM 10 Years of Profiling the European Citizen, Amsterdan University Press, 2019. p. 80. https://doi.org/10.1515/9789048550180.

Ver Texto
(209)

JAMIL, Maryam. TH-SOF-1397-CRM analytics based on association rules and clustering pattern. 2016. Tesis Doctoral. Nust College of Electrical and Mechanical Engineering.

Ver Texto
(210)

GUILLÉN LASIERRA, Francesc. Investigación criminal en la sociedad diversa. El uso de las características raciales en el marco del Estado de Derecho. Cuadernos Digitales de Formación, Consejo General del Poder Judicial, 2018, vol. 58, p. 4.

Ver Texto
(211)

En el ámbito sancionador administrativo en materia de extranjería la vigencia del principio de no discriminación es algo más difusa. Así, la STC n.o 13/2001, de 29 de enero (LA LEY 2398/2001), avaló identificaciones policiales de extranjería por la raza, al entender que el factor racial era un dato estadístico indiscutible del origen extranjero de la persona identificada. el Comité de Derechos Humanos en Resolución de 30 de junio de 2009, consideró tales infracciones como discriminatorias y condenó a España.

Ver Texto
Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll