Cargando. Por favor, espere

¿Pueden los robots administrar justicia?

¿Pueden los robots administrar justicia? (1)

Fernando Pinto Palacios

Magistrado Juez de Adscripción Territorial adscrito al TSJ de Castilla-La Mancha

Diario La Ley, Nº 9808, Sección Tribuna, 11 de Marzo de 2021, Wolters Kluwer

LA LEY 2087/2021

  • ÍNDICE
Comentarios
Resumen

La utilización de la inteligencia artificial en la Administración de Justicia plantea numerosos interrogantes. En el caso State v. Loomis, la Corte Suprema del Estado de Wisconsin examinó si se podía basar una decisión judicial sobre la pena aplicable a un condenado en el informe emitido por un programa informático desarrollado por una empresa privada y cuyo algoritmo era secreto para la defensa. Tras analizar este caso, el artículo reflexiona sobre el creciente fenómeno de la robotización y los desafíos que plantea cuando se aplican estos avances tecnológicos en la función jurisdiccional.

Palabras clave

Inteligencia artificial. Robotización. Administración de Justicia. Reincidencia.

Abstract

The use of artificial intelligence in the Justice Administration presents numerous questions. In State v. Loomis, The Wisconsin Supreme Court examined if a judge’s decision on the sentence of a convict could be based on the report of a computer programme developed by a private company whose algorithm was hidden to the defence. After analysing the case, the article thinks about the growing phenomenon of robotisation and the challenges set out when these technological advances are applied to the jurisdictional function.

Keywords

Artificial intelligence. Robotisation. Justice Administration. Recidivism.

Hace unos años el Presidente de la Corte Suprema de los Estados Unidos, John G. Roberts Jr., visitó el Instituto Politécnico Rensselaer dedicado a la investigación científica y técnica. Todos los periodistas que cubrían la noticia se quedaron sorprendidos cuando la presidenta de dicha institución le preguntó: «¿Puede imaginarse un día en que las máquinas, dotadas de inteligencia artificial, ayuden a los Tribunales de Justicia a determinar los hechos relevantes e, incluso, a tomar decisiones judiciales?». La respuesta no tardó en escucharse: «Ése día ya ha llegado. Y está poniendo una gran presión sobre cómo el poder judicial hace las cosas».

El magistrado estaba pensando en el «caso Loomis». En el año 2013 Eric Loomis fue detenido por agentes de policía del Estado de Wisconsin (Estados Unidos) cuando conducía un vehículo implicado en un reciente tiroteo. Se le acusaba de huir de la policía y utilizar un vehículo sin la autorización de su propietario. El señor Loomis se declaró culpable de ambos delitos con la esperanza de que no tuviera que ingresar en prisión. Durante la vista para decidir sobre su libertad condicional, el Fiscal aportó un informe elaborado por el programa informático Compas, desarrollado por la empresa privada Northpointe Inc., según el cual el señor Loomis tenía un riesgo elevado de reincidencia y de cometer actos violentos. El informe concluía que el condenado representada un «alto riesgo para la comunidad». Partiendo de tales consideraciones, el juez impuso al señor Loomis una pena de seis años de prisión y otros cinco en régimen de libertad vigilada. La defensa del condenado recurrió la sentencia alegando que se había vulnerado el derecho a un proceso con todas las garantías porque no podía discutir los métodos utilizados por el programa informático Compas dado que el algoritmo era secreto y solo lo conocía la empresa que lo había desarrollado. Sin embargo, tales argumentos no fueron acogidos por la Corte Suprema del Estado de Wisconsin. Los jueces argumentaron que, en definitiva, el programa informático se había basado únicamente en los factores habituales para medir la peligrosidad criminal futura como, por ejemplo, huir de la policía y el historial delictivo previo.

En los últimos años hemos asistido a un proceso constante de automatización del sector servicios, construcción, medicina, alimentación, defensa o industria aeroespacial. Las máquinas invaden cada vez más nuestra intimidad. Tenemos robots de cocina, drones, casas domóticas, robots de limpieza. No resulta aventurado imaginar que el desarrollo de la inteligencia artificial permitirá dentro de unos años tener amigos «robots» que nos reciban en casa, interactúen con nosotros, les contemos nuestros problemas y se preocupen por nuestras emociones.

Según el informe anual World Robotics 2020 Industrial Robots, en el año 2019 operaban en el mundo 2,7 millones de robots industriales

Según el informe anual World Robotics 2020 Industrial Robots, en el año 2019 operaban en el mundo 2,7 millones de robots industriales. Hace dos años en España había más de cincuenta mil robots instalados, es decir, diecisiete robots por cada mil trabajadores. Un informe elaborado por el Bank of America Merrill Lynch concluyó que el mercado global de la robótica y la inteligencia artificial tendrá dentro de pocos años un valor de 153.000 millones dólares. Una de las consecuencias asociadas a este proceso será, lógicamente, la pérdida masiva de puestos de trabajo. Así, por ejemplo, se estima que en Estados Unidos el 47 % de los empleos corren el riesgo de ser automatizados en los próximos veinte años. En el caso de Reino Unido, un 35 % de los empleos pueden considerarse de «alto riesgo», es decir, susceptibles de ser mecanizados a corto plazo. Esta situación provocará un aumento de la desigualdad entre los trabajadores cualificados y no cualificados pues, en definitiva, solo persistirán aquellos empleos que exijan creatividad, inteligencia social o requieran una elevada destreza.

Dentro de este proceso tecnológico, no resulta aventurado pensar que la inteligencia artificial llegue a sectores de nuestra actividad que tradicionalmente considerábamos irrenunciables, entre ellos, al arte de juzgar a las personas de acuerdo con las leyes votadas en un proceso democrático. El «caso Loomis» representa a la perfección hasta qué punto estamos obnubilados por la perfección matemática. Supone que la decisión de enviar a una persona a prisión dependa de un algoritmo. Debido a la fascinación tecnológica —ese tentador impulso que ensalza las virtudes de la técnica frente al errático comportamiento humano— implica, en definitiva, que la «máquina» es mucho más precisa y fiable que el juez que analiza un caso con arreglo a su conocimiento de la ley y su experiencia profesional. Es posible que el software Compas utilizado en la justicia penal norteamericana analice múltiples variables para emitir una conclusión. Sin embargo, el algoritmo carece de la capacidad humana para individualizar una sentencia dado que, por regla general, está programado en base a una causalidad unidireccional: si se produce «A» luego ocurrirá «B». ¿Qué ocurrirá, por ejemplo, si el sujeto quiere rehabilitarse? ¿Se va a predecir siempre su comportamiento futuro en base exclusivamente a los errores que ha cometido en el pasado?

La utilización de la inteligencia artificial en la Administración de Justicia plantea numerosos interrogantes. ¿Quién elabora el software? ¿Qué variables tiene en cuenta? ¿Cómo se pueden rebatir sus conclusiones? ¿Puede desvelarse el algoritmo cuando esté en juego la libertad de una persona? Todas estas cuestiones redundan, en definitiva, en una mucho más trascendental: ¿estamos dispuestos a ser juzgados por máquinas? Nuestra imaginación todavía no alcanza a imaginar ese escenario. Sin embargo, si nos paramos a reflexionar un instante, pronto nos daremos cuenta de hasta qué punto la tecnología ha ido introduciéndose en el arte de juzgar. Quizá sea el momento de recordar las palabras de Marvin Minsky, padre de la Inteligencia Artificial, pronunciadas hace más de cuarenta años en la Revista Life: «Cuando los ordenadores tomen el control, puede que no lo recuperemos. Sobreviviremos según su capricho. Con suerte, decidirán mantenernos como mascotas».

(1)

Artículo publicado en base al Acuerdo de Colaboración entre la Asociación Profesional de la Magistratura y Wolters Kluwer.

Ver Texto
Añadir comentario1Comentarios
JESUS FERNANDEZ ENTRALGO|22/03/2021 19:55:29
«El tribunal electrónico» es uno de los capítulos de «El Libro Negro», de Giovanni Papini. El imaginado multimillonario Gog, espectador de la primera experiencia no menos imaginado, no puede soportarla y necesita, de regreso a su hotel, una dosis doble de whisky para superarla. Es una de tantas «utopías infernales», fruto de la incapacidad del ser humano de asumir su imperfección, que lo lleva a creer que puede superarla mediante la utilización de máquinas ... que finalmente heredan de él su misma condición imperfecta, porque se limitan a aplicar procedimientos (ahora suena más fino hablar de algoritmos) que el ser humano elabora. Poner las decisiones en manos de un Golem es peligroso. Notificar comentario inapropiado
Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioWolters Kluwer no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar

Últimos tweets

NÚMEROS DISPONIBLES

Scroll