Por Carlos B Fernández.-«DataFórum 2023», el gran evento anual sobre justicia y datos, se celebrará en Gijón del 14 al 16 de junio. Durante tres jornadas, un plantel de expertos debatirá sobre las posibilidades de la digitalización de los tribunales y de cómo pueden contribuir los datos a conseguir ofrecer a la ciudadanía un servicio público más cercano, transparente, innovador y eficaz.
Alejandro Huergo Lora, Catedrático de Derecho Administrativo de la Universidad de Oviedo, es uno de los ponentes del Data Forum 2023 en el que participará con una Charla Inspiradora titulada «Inteligencia Artificial (IA) y Justicia: ¿qué podemos esperar? ¿qué debemos evitar?».
En esta entrevista nos anticipa algunos de los temas que serán objeto de su análisis.
Desde un punto de vista muy general ¿qué ventajas podría aportar la IA al ámbito de nuestra Justicia?
La IA significa que los ordenadores pueden hacer un trabajo que antes sólo podían realizar operadores humanos, lo que permite obtener muchos más resultados con los mismos medios humanos. La justicia siempre ha padecido una gran escasez de medios, por lo que cualquier ayuda es conveniente. Además, la IA facilita la toma de decisiones porque el análisis matemático de los datos permite hacer predicciones que lleven a decisiones más racionales. Esto también permite concentrar los recursos públicos allí donde son más necesarios.
¿Con qué finalidades considera que debería aplicarse, preferentemente, esta tecnología?
La justicia (jueces y tribunales) es la institución a la que se encomienda la toma de las decisiones más graves que puede adoptar un Estado: condenar a personas a penas de prisión, asignar con qué progenitor va a vivir un menor, dirimir graves conflictos patrimoniales, etc. Para que esas decisiones tengan la máxima legitimidad y aceptación se toman importantes garantías: su adopción corresponde a jueces y magistrados independientes e imparciales, son decisiones vinculadas a la Ley y se adoptan tras un procedimiento en el que se garantizan los derechos de defensa de todas las partes. Esto supone límites importantes para la aplicación de la IA, puesto que ésta supone, normalmente, una predicción aproximativa y las decisiones judiciales tienen que adoptarse en función de hechos probados (no de predicciones) y deben justificarse a partir de normas jurídicas, no de algoritmos. Por ello, la IA no puede aplicarse en la justicia con tanta intensidad como en otros ámbitos, y su uso debería ser más bien instrumental. Por ejemplo, como una ayuda para la redacción de los escritos o decisiones repetitivos o de trámite, o como un instrumento que ayude a predecir dónde habrá especiales necesidades al objeto de disponer de más medios personales o materiales.
Por el contrario ¿qué posibles usos de la IA cree que deberían evitarse?
Como ya he indicado, la IA suele proporcionar aproximaciones, indicios, que después necesitan ser confirmados. Por ejemplo, la IA puede predecir qué grupos de personas tienen más probabilidades de padecer una enfermedad (para someterlos a análisis que lo confirmen o desmientan). Esa primera aproximación puede ser muy útil en muchos ámbitos. Sin embargo, la justicia opera con un elevado nivel de exigencia y garantía, por lo que ese tipo de predicciones no son suficientes salvo como un apoyo o de forma instrumental y aproximativa. No se puede resolver un pleito en un determinado sentido sólo porque una aplicación de IA indique que la posición de una de las partes se parece a la de quienes han ganado otros casos anteriores, hace falta justificar la decisión en Derecho y a la vista de las circunstancias concretas.

¿Qué requisitos serían necesarios para obtener aquellas ventajas?
Es preciso diseñar aplicaciones que puedan conseguir resultados útiles, lo que exige conocer los problemas concretos que tiene que resolver la justicia. Además, en su puesta en práctica es necesario cumplir toda una serie de garantías (que ahora se están intentando recoger en el Reglamento europeo de IA) dirigidas, fundamentalmente, a asegurar la calidad de las aplicaciones de IA (es decir, que las predicciones que realicen sean lo más acertadas que sea posible) y también a evitar que sirvan para discriminar a personas o grupos o lesionen los derechos fundamentales. Para ello, es fundamental asegurar la calidad de los datos utilizados y también la transparencia del proceso, de modo que sea posible controlar su aplicación. Además, son necesarias normas jurídicas de rango adecuado que constituyan la habilitación necesaria y suficiente para aplicar estas técnicas.
En particular ¿Dispone nuestro sistema de Justicia de datos de calidad suficientes para alcanzar esos objetivos?
Cada aplicación de IA tiene unas exigencias diferentes en cuanto a datos. Técnicamente se está trabajando para reducir la cantidad de datos necesaria para el funcionamiento de la IA. Parece claro, en todo caso, que queda mucho por avanzar en cuanto a la obtención y estructuración de datos procedentes del mundo judicial. Más allá de la IA, los datos son imprescindibles para conocer cómo funciona la justicia o para evaluar las Leyes que se aprueban, una tarea pendiente.
¿Dispone nuestro ordenamiento de mecanismos jurídicos y técnicos adecuados para proteger los derechos de los ciudadanos frente a ese uso?
La pregunta debería ser más bien si nuestro ordenamiento dispone de normas que habiliten el uso de la IA en sectores como la justicia. La respuesta es negativa, y la prueba era el proyecto de Ley de Medidas de Eficiencia Digital del Servicio Público de Justicia, que intentaba crear esa base jurídica y que ha caducado con la disolución del Congreso y el Senado. El Tribunal Constitucional Federal alemán recientemente declaró inconstitucional la utilización de determinados sistemas de «policía predictiva» basados en datos debido a que no existía una base jurídica adecuada. Esas normas habilitantes deberán incorporar, como exige el Reglamento General de Protección de Datos (LA LEY 6637/2016) y exigirá el Reglamento de IA, garantías suficientes para los ciudadanos.
La propuesta de Reglamento de IA incluye a los sistemas aplicados a la Justicia como de alto riesgo ¿qué implicaciones cree que tendrá está consideración?
Esta calificación supone aplicar a los sistemas de IA unas reglas de seguridad similares a las que se utilizan con otros productos de riesgo susceptibles de producir accidentes, como automóviles, ascensores o calderas. Las medidas de seguridad afectan a los datos utilizados por el sistema, a su diseño y a su utilización. El proveedor del sistema debe analizar de antemano todos los posibles riesgos y establecer medidas dirigidas a minimizarlos. Además, debe suministrar a los usuarios información adecuada (una especie de «prospecto» como el de los medicamentos) y asegurarse de que los humanos puedan mantener en todo momento el control sobre la utilización del sistema de IA. Son requisitos y medidas que se describen en términos genéricos. Su contenido concreto se establece caso por caso (en función de las características de cada sistema), teniendo en cuenta el principio de proporcionalidad. En unos casos, será necesario que un tercero certifique que se cumplen esos requisitos; en otros, bastará la declaración justificada del proveedor o fabricante. Autoridades públicas podrán comprobar el cumplimiento de la norma e imponer, en su caso, sanciones, además de ordenar.
DATAfórum JUSTICIA 2023 |
Organizado por el Ministerio de Justicia y el Principado de Asturias con la colaboración de la Universidad de Oviedo y Laboral Ciudad de la Cultura, DATAfórum es el gran foro anual del sector Justicia en la cultura del dato, la digitalización y el humanismo, que aúna a las instituciones, la academia y al sector privado. Toda la información, programa e inscripciones en la web del evento. |