Introducción
La mención o referencia a la Inteligencia Artificial en la inmensa mayoría de foros jurídicos es identificada, de forma habitual, con un producto de ciencia ficción, planteamiento utópico o irrealizable y, también en muchos casos, con algo que dista tanto del mundo tangible que por ello no merece siquiera ser abordado como objeto serio de estudio. Pero cabe preguntarnos: ¿realmente es así? ¿tan lejos estamos de la incorporación de la Inteligencia Artificial al elenco de herramientas jurídicas que hoy nos sirven en el ejercicio de nuestra profesión?
Probablemente, hayamos de convenir con los escépticos en que nuestro contexto actual se encuentra muy lejos de los planteamientos o fabulaciones sobre I.A realizados en obras conocidas de la literatura de ficción, tal como el clásico de Philip K. Dick ¿Sueñan los androides con ovejas eléctricas? o el más reciente Máquinas como yo de Ian McEwan. Es absolutamente cierto que los robots con forma humana capaces para el desarrollo emocional o la capacidad sensitiva se encuentran lejos de cualquier viso de realidad aprehensible. Es indiscutible que la Inteligencia Artificial, hoy, en el año 2021, es únicamente una tecnología en proceso de evolución y cuya inversión sigue exigiendo notabilísimas contribuciones para el sector público y, sobre todo, para el privado. Sin embargo, abandonando los tópicos o las representaciones más populares o comunes de la I.A, sí conviene abordar, social y profesionalmente, un debate serio, plural y riguroso sobre qué horizonte próximo le queda a esta tecnología y, más concretamente, cómo puede la misma repercutir positivamente en la Justicia, en la adopción de decisiones por los Juzgados y Tribunales, en la pacífica resolución de las controversias; en definitiva: en la aplicación de la legalidad.
Hagamos notar que el campo que abre a su paso el binomio «Justicia-Inteligencia Artificial» no es pacífico ni libre de obstáculos. Como bien viene señalando en sus diferentes informes y publicaciones la Comisión Europea, el uso de la Inteligencia Artificial puede afectar con un impacto profundo y desconocido a cuestiones trascendentales de la ciudadanía, tales como sus derechos fundamentales o la forma en que los particulares y empresas despliegan su comportamiento ante los poderes institucionales. La razón es evidente: la Inteligencia Artificial, como tecnología de última generación, aspira a sustituir en determinados campos al intelecto humano, a su capacidad cognitiva y volitiva; fomentar una tecnología así, sin establecer cautelas y mecanismos técnicos y normativos de salvaguardia, podría suponer un grave riesgo, no ya para las instituciones esenciales del ser humano, sino para la comprensibilidad literal del mismo. ¿Qué somos realmente si nuestras capacidades esenciales pueden sustituirse por el resultado exacto de una predicción algorítmica?
En el marco disciplinar de lo jurídico, la Inteligencia Artificial proyecta sus funcionalidades sobre campos diversos: anticipación de decisiones, cálculo de probabilidades, exactitud en la localización de argumentos de base normativa, formulación de secuencias procedimentales… Pero cómo debemos regular los usos de la I.A en un sector tan sensible como el que representa la aplicación de las leyes, es posible conciliar la mejor eficiencia y eficacia en los procesos judiciales que proporciona una tecnología de Inteligencia Artificial con la inexcusable protección de las garantías constitucionales.
El debate que proponemos ahora —somos conscientes de ello— no es fácil. Buscamos responder interrogantes cuya respuesta se encuentra suspendida por un futuro que todavía no se muestra con todos sus matices. Sin embargo, y ello es evidente, la Inteligencia Artificial condicionará en las próximas décadas todo lo que nos rodea. Resultado probablemente final de la digitalización de la vida, no nos resultará extraño conocer el importe de nuestra indemnización judicial a través de aplicaciones expertas en diagnósticos de sinestros y responsabilidad civil, o, quién sabe, ser sujetos a una medida cautelar privativa de libertad en función de la valoración y análisis global de una serie de circunstancias personales llevados a cabo por un ordenador diseñado para la evaluación del riesgo de reincidencia. ¿Ciencia ficción? ¿Distopía? Puede… La necesidad del diálogo sobre lo que viene, no obstante, no admite cuestionamiento: es imperativa.
1.º
Una aproximación teórica y conceptual imprescindible y no tan pacifica como pueda parecer: ¿Qué es la Inteligencia Artificial?
Pere Simón Castellano (Profesor experto en Derecho de las Nuevas Tecnologías en UNIR y Abogado)
«Como bien indicas, no es una respuesta sencilla puesto que en el mercado proliferan startups y Softwares as a Service que venden humo sobre la automatización y detección online y que en la práctica tienen a un equipo de personas, a veces incluso de "indios", en el sentido más estricto de la palabra, haciendo el trabajo desde el back office. Así que muchas soluciones no tienen nada de artificiales y, de hecho, algunas, tampoco son precisamente "inteligentes".
Cuando hablamos de IA nos referimos a la habilidad de una máquina de presentar las mismas capacidades que los seres humanos, como el razonamiento, el aprendizaje, la creatividad y la capacidad de seleccionar o escoger en base a las distintas variables y alternativas posibles. La IA permite que los sistemas tecnológicos perciban su entorno, se relacionen con él, resuelvan problemas y actúen con un fin específico.
Sin embargo, ¿cómo es el proceso técnico que permite que el androide o la máquina emule el juicio humano? El sistema experto se nutre necesariamente de datos —ya preparados o recopilados a través de sus propios sensores, por ejemplo, una cámara—, los procesa y responde en base a estos. La calidad y los resultados de este ejercicio dependerán, entonces, de la calidad y exactitud de los datos y, a continuación, de la precisión del algoritmo, que copia la lógica humana en el ámbito del lenguaje computacional.
Dentro del paraguas de la IA encontramos distintas técnicas, la más vanguardista es sin lugar a duda la que agrupa los sistemas de aprendizaje autónomo, que disponen de un algoritmo que se modifica y perfecciona sin que el usuario e incluso su creador sean capaces de descubrir de forma sencilla las razones por las que el algoritmo ha adoptado una decisión.»
Carlos B. Fernández Hernández (Redactor-Jefe de Ciberderecho-LA LEY)
«Desde que en 1956, John McCarthy la presentara como "la ciencia y la ingeniería de la fabricación de máquinas inteligentes", se han sucedido múltiples definiciones de la IA (Legg y Hunter han recopilado más de 70).
Por mencionar solo las más relevantes, diremos que nuestro Diccionario de la Lengua la conceptúa como una disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.
La definición utilizada por el Grupo de Expertos de Alto Nivel de la Comisión Europea en abril de 2019, se refiere a los programas informáticos (y, en ocasiones, también al hardware) que, dado un objetivo complejo, deciden las mejores acciones que se deben llevar a cabo para alcanzar dicho objetivo para lo que actúan en la dimensión física o digital, a partir de la percepción de su entorno, la adquisición de datos sobre el mismo, la interpretación de esos datos (estructurados o no estructurados) y el tratamiento de la información fruto de estos datos.
Con una visión muy amplia, que ha sido por ello objeto de crítica, la propuesta de Reglamento Europeo de IA de abril de 2021, la define como el software que se desarrolla empleando estrategias de aprendizaje automático (supervisado, no supervisado o por refuerzo); de lógica y representación del conocimiento y estadísticas, y que puede, para un conjunto determinado de objetivos definidos, generar una información de salida en forma de contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa.
Finalmente diremos que dos de los más relevantes estudiosos de esta ciencia, Russell y Norvig, se manifiestan más favorables a la expresión "computación racional" (computational rationality), entendiendo por racionalidad la actuación orientada a obtener el mejor resultado posible en relación con un objetivo previamente definido, o el mejor resultado esperable cuando el objetivo es indeterminado.
Como puede apreciarse, las características comunes de estas definiciones se refieren a herramientas de software que, mediante el tratamiento de grandes volúmenes de datos (aunque en determinados casos puede funcionar eficazmente sin ellos), intenta alcanzar el mejor resultado posible para un objetivo determinado y complejo, utilizando para ello algoritmos de aprendizaje que permiten al sistema mejorar progresivamente su comportamiento».
Miguel Bueno Benedí (Letrado de la Administración de Justicia)
«Si definir la I.A. es complejo incluso para los entendidos, para un Letrado de la Administración de Justicia como yo (que no es mi campo), más todavía. Sin embargo, como entusiasta y defensor del uso de las nuevas tecnologías creo que la comunidad científica sí está de acuerdo en la metodología de la I.A.: diseñar y desarrollar un software para que éste sea capaz de tomar decisiones en base a la experiencia. Se ve más claro con un ejemplo muy sencillo. Imaginemos desarrollar una aplicación que es capaz de reconocer gatos en una foto. Uno de los pasos más comunes en el desarrollo de I.A. es la fase de entrenamiento. Así, si el software está bien diseñado y se le ha entrenado bien haciendo que procese miles de fotos de gatos, encontrará patrones para reconocer en futuras fotografías nuevas imágenes de gatos. Al final, como se deduce, el software será capaz de tomar una decisión y extrapolar información en base a su experiencia, y esto es lo que creo que mejor define a la I.A.
Con este ejemplo es fácil entender que no se trata de una tecnología tan futurista como reflejan el cine o la literatura, sino que ya lo tenemos al alcance de nuestra mano, sin darnos cuenta, como Google aprendiendo de nuestros gustos para ofrecernos lo que nos gusta cuando navegamos por Internet o las aplicaciones de GPS que calculan el tráfico en tiempo real.»
David Mellado Ramírez (Socio responsable de Legal en PwC España. Abogado del Estado en excedencia)
«El proceso en el que sin intervención humana se analiza un volumen determinado de información, estructurada o no, para tomar una decisión o para clasificarla la información, asociando o no una consecuencia a la decisión o clasificación».
Ana Mercedes López Rodríguez (Profesora titular de Derecho Internacional Privado. Árbitro independiente. Miembro del Consejo Asesor Académico de la Fundación de la Inteligencia Artificial Legal (FIAL))
«De todas las definiciones existentes me quedo con la siguiente: es el software que imita (aunque no solo) funciones cognitivas que los humanos asocian con su propia inteligencia, tales como el aprendizaje y razonamiento, planificación y resolución de problemas. También se puede definir como un sistema aplicado a una tecnología informática avanzada, que está dirigido a la imitación del comportamiento humano inteligente, en parte para comprender la inteligencia (humana) y también para crear entidades inteligentes que puedan operar de forma autónoma en entornos complejos y cambiantes (Russell, S., & Norvig, P. (2010). Artificial intelligence: A modern approach (3rd ed.). New Jersey: Pearson Education)»
2º.
En atención a lo vasto y amplio del ordenamiento jurídico: ¿Qué sectores o materias ofrecen una mayor predisposición para la utilización de tecnologías sustentadas sobre algún tipo de Inteligencia Artificial? ¿Derecho del seguro? ¿Reclamaciones de deudas? ¿Mediación electrónica? ¿Derecho Penal y actuaciones preventivas?
Pere Simón Castellano (Profesor experto en Derecho de las Nuevas Tecnologías en UNIR y Abogado)
«Con mucha diferencia es más fácil implementar las soluciones que ofrece la IA en el ámbito de la mediación, la resolución extrajudicial de conflictos y en el ámbito contractual. El Derecho del seguro o los contratos laborales constituyen buenos ejemplos, que pueden ser vehiculados a través de los llamados smart contracts. En un seguro de vida si se produce el evento riesgoso cubierto por el seguro, esto es, la muerte del asegurado, la entidad aseguradora procede al pago de un capital a los beneficiarios. No parece difícil ejecutar un enunciado con una ecuación o fórmula de este estilo: si se produce "X" entonces "A" entrega a "B" el capital "C". Evidentemente, ciertos seguros tienen una fórmula un poco más compleja, pero son automatizables por definición. Los contratos, en general, lo son; y la reclamación de deudas es una derivada del incumplimiento, que puede ser gestionada por defecto desde sistemas expertos de IA.
La más difícil es la vía penal, especialmente por lo que se refiere a fines de seguridad. Nuestra sociedad, también llamada la sociedad del riesgo, pretende alcanzar una actuación ex ante delictum, al más puro estilo cinematográfico de Minority report. Es decir, controlar focos de riesgo potenciales y futuros delincuentes mediante sistemas de predictive policing, con reconocimiento facial, datos biométricos, sensores de toma de temperatura corporal, infrarrojos, etc. La vía preventiva genera muchas dudas desde la óptica de los derechos fundamentales porque es especialmente invasiva, por ejemplo, para la dignidad humana y la privacidad. Ciertas medidas proporcionales han sido implementadas con el beneplácito de las autoridades de control en protección de datos, en perspectiva comparada, para controlar el acceso a eventos deportivos y garantizar el orden y la seguridad, hasta el momento, con éxito. En una dinámica parecida, encontramos los sistemas para la valoración del riesgo de comisión delictiva futura, como COMPAS y HART, entre muchos otros, que son empleados con frecuencia en el ámbito de la justicia actuarial, es decir, en los centros penitenciarios para tomar decisiones formadas sobre la libertad condicional, la libertad vigilada, la clasificación penitenciaria, la concesión de permisos, etc. Ese es un subtema muy específico que da para mucho y cuyas cautelas y salvaguardas deben ser prácticamente las mismas que cuando hablamos del apoyo del juzgador en sistemas de IA para la toma de decisiones judiciales formadas, por ejemplo, en el momento de acordar la prisión preventiva del investigado.»
Carlos B. Fernández Hernández (Redactor-Jefe de Ciberderecho-LA LEY)
«Creo que la primera consideración que debemos tener en cuenta para responder a esta pregunta es que estamos viviendo un momento de enorme ruido mediático en torno a la realidad y las posibilidades de las tecnologías inteligentes.
Un ruido generado desde un desconocimiento generalizado de los fundamentos, principios y alcance de la IA por parte de evangelistas o divulgadores de la misma, que lleva a atribuirla potencialidades o capacidades muy por encima de su actual nivel de desarrollo y de muy incierta confirmación en el futuro. Como consecuencia, muchas empresas están proclamando, como herramienta de marketing, que usan "inteligencia artificial" cuando se refieren sistemas de estadística avanzada o sistemas de toma de decisión, basada en programación clásica.
Dicho eso, determinar qué sectores del Derecho se ofrecen una mayor predisposición para la utilización de estas tecnologías, requiere, en mi opinión, determinar previamente qué objetivo de mejora se quiere resolver en cada una de ellas, para, en función de esa finalidad, intentar determinar cuál es la mejor tecnología disponible. Como hace ya años advirtió Cedric Price, "sabemos que la tecnología es la respuesta, pero ¿cuál es la pregunta?"
Hoy por hoy, la IA se mueve en áreas muy concretas y especializadas de actividad (interpretación del lenguaje natural, reconocimiento de imágenes, …), en cada una de las cuales sus prestaciones superan claramente a las humanas, pero no son exportables a otras áreas.
Por ello, con una visión muy general, podemos pensar que la IA tiene un relevante recorrido en tareas orientadas a facilitar la toma de decisiones por el ser humano y no tanto en la toma autónoma de decisiones, y menos con efectos jurídicos o equivalente.
La razón es que, a la hora de pensar en la aplicación de la IA al ámbito jurídico, se debe tener muy en cuenta que ningún sistema de IA "sabe" derecho. Es decir, ninguno tiene codificado en forma de instrucciones o criterios de toma de decisión, el complejo ordenamiento jurídico, no ya de un país o región, ni siquiera de un ámbito concreto del Derecho. La codificación del ordenamiento jurídico es una tarea de extrema dificultad técnica que hoy por hoy parece estar muy lejos de los objetivos de los desarrolladores de sistemas inteligentes. Y sin esa codificación, que permitiese al sistema adoptar decisiones jurídicamente aceptables, no vemos posible su desarrollo (salvo que revolución jurídica previa).
Pero sí podemos pensar en la aparición de herramientas muy avanzadas para tareas como el análisis de grandes volúmenes de documentación, ya sea para su clasificación, la identificación de patrones o desviaciones, la localización de información o antecedentes o la generación de documentos, en especial a través de consultas muy complejas (hoy irresolubles), con un enfoque optimizado para diferentes áreas del Derecho; la transcripción de vistas o actuaciones orales; la automatización de procesos (como los de mediación o solución alternativa de conflictos) y la construcción de asistentes conversacionales o chatbots para ayuda de clientes o administrados».
Miguel Bueno Benedí (Letrado de la Administración de Justicia)
«Si estamos usando la I.A. hoy en día para aspectos cotidianos como puede ser una nevera inteligente que detecta los productos que faltan y los introduce en una lista de la compra, las posibilidades que nos puede ofrecer en los procesos judiciales actuales que están "chapados a la antigua" son casi infinitos.
En mi opinión, lo interesante sería identificar todos aquellos fallos, vacíos y deficiencias que se están produciendo en los procesos judiciales para ser resolverlos o hacerlos más eficientes o mejores gracias a las distintas aplicaciones de IA como Big Data, Machine Learning, Procesamiento del Lenguaje Natural (PLN), Deep Learning, Redes Neuronales Artificiales... El uso de procesadores de texto que nos ofrecen modelos de tramitación o los buscadores de jurisprudencia son ya una I.A. que, aunque útil, ha quedado obsoleta. Estamos hablando de pasos o trámites que, en cierto modo, han perdido el sentido como podría ser la "minuta" de las demandas y su admisión a trámite, las cuestiones de competencia, la admisión de recursos, una averiguación patrimonial o de domicilio... Es decir, una I.A. que sea capaz de automatizar del proceso, haciendo desaparecer los trámites innecesarios o que el trabajo humano provoca que éstos se acumulen y ralenticen.
Otra aplicación fundamental para descargar a los Juzgados y Tribunales sería la de poder resolver sin intervención humana todos aquellos procedimientos que se tramitan sin oposición, aquellos cuyo trámite es muy sencillo y repetitivo (como el caso de un proceso monitorio, un verbal de cantidad o un desahucio por falta de pago), aquellos en los que la única prueba que se debe practicar es documental o incluso en la fase de ejecución. También la I.A. sería de gran utilidad para ayudar a Jueces y Magistrados tanto en la valoración de la prueba como en la argumentación de la sentencia. También, aunque con matices, en la valoración del riesgo en caso de tener que adoptar medidas cautelares.
Por último, en el ámbito que más aplicación podría llegar a tener es en el de las vistas de los juicios orales: para la identificación y autentificación de las personas citadas en las vistas judiciales por videoconferencia, para generar una transcripción automática, en digital, a la que las partes tengan acceso en pantalla y puedan descargar en formato Word o PDF, para su impresión o para su trabajo en pantalla, para generar una traducción simultánea en caso de que se necesitase intérprete, entre otras muchas.»
David Mellado Ramírez (Socio responsable de Legal en PwC España. Abogado del Estado en excedencia)
«En aquellas materias en las que se puede aislar un proceso sencillo por la tipología de la información en que se basa. A modo de ejemplo, pasos sencillos de un proceso judicial, como reparto de asuntos, determinación de cuantía… También es posible en actuaciones inspectoras en las que se requiere el análisis de grandes volúmenes de información, y se puede anticipar conductas».
Ana Mercedes López Rodríguez (Profesora titular de Derecho Internacional Privado. Árbitro independiente. Miembro del Consejo Asesor Académico de la Fundación de la Inteligencia Artificial Legal (FIAL))
«Todas las referidas, así como el ámbito tributario.
En el campo de la resolución alternativa de conflictos, que es en el que tengo más experiencia, ya hay ejemplos de aplicación de la inteligencia artificial en procedimientos arbitrales y de mediación, tanto a título principal, como complementario o de apoyo.»
3º.
Una de las preocupaciones que más insistentemente han subrayado la Comisión Europea y otras instituciones internacionales es la que atañe a la necesidad irrenunciable de conciliar la utilización de la Inteligencia Artificial con la protección de los derechos fundamentales y las libertades públicas. ¿Dónde se encuentran específicamente esos riesgos? ¿Es la Inteligencia Artificial un jaque a la sociedad democrática contemporánea tal y como hoy la conocemos? ¿Qué compromisos deben asumir los poderes públicos? ¿Y los entes privados que, por ejemplo, diseñen y comercialicen los softwares de I.A?
Pere Simón Castellano (Profesor experto en Derecho de las Nuevas Tecnologías en UNIR y Abogado)
«La IA está de moda, y los riesgos que entraña son muy diversos, por ello la Comisión Europea publicó el 21 de abril de 2021 una propuesta de Reglamento europeo sobre el uso de la Inteligencia Artificial. El objetivo de este nuevo instrumento creado ad hoc para la inteligencia artificial es garantizar que los europeos puedan confiar en lo que la IA puede ofrecer, permitiendo las mejoras técnicas a la par que reforzando la tutela de los derechos fundamentales frente a los riesgos que puede comportar el uso de herramientas o sistemas basados en IA.
Con ello se persigue acabar con un marco normativo atomizado, combinando y armonizando las distintas disposiciones existentes con una vocación sistemática y coherente, junto a un nuevo plan coordinado con la participación de los distintos Estados miembros.
La normativa en fase de tramitación parte de un enfoque horizontal, basado en niveles de riesgo, que incluye una definición amplia de IA, lo que permite garantizar la cobertura de las reglas establecidas a cualquier avance cercano a la inteligencia artificial. El enfoque de riesgo, por su parte, condiciona la estructura del reglamento que se diseña en base a la clasificación de riesgos en cuatro niveles: inadmisible, alto, limitado y mínimo.
Se pretenden prohibir sistemas que generen riesgos inadmisibles, como aquellos que permiten identificar biométricamente de forma remota en espacios públicos con fines policiales; los que perfilan y puntúan socialmente a las personas por parte de las autoridades públicas; los basados en el empleo de técnicas subliminales que pueden conducir a la manipulación de personas generando el riesgo de causar daños físicos o psicológicos a la persona en cuestión o terceros; los sistemas que pretenden aprovecharse de la especial vulnerabilidad de determinados grupos de personas; entre otros.
Los sistemas de IA que entrañan riesgos altos son permitidos pero sujetos a un alto grado de control; los limitados, en cambio, sujetos únicamente a obligaciones de transparencia e información.
La propuesta viene acompañada de una parte orgánica, con nuevos organismos internacionales y nacionales que podrán verificar el cumplimiento y, finalmente, se completa con un régimen sancionador, con la previsión de infracciones y sanciones para nada desdeñables. Así que los entes privados que diseñen o comercialicen sistemas de IA en la Unión Europea, o cuyos destinatarios sean residentes europeos, pronto tendrán un marco normativo claro de referencia al que atenerse y respetar.
La doctrina nacional (Lorenzo Cotino Hueso y OdiseIA) e internacional (grupo de investigación del Leads Lab de la Universidad de Birmingham) han sido muy críticos con algunas partes de la propuesta, y como reacción han propuesto ciertas enmiendas con el fin de iluminar al legislador europeo, poniendo de relieve ciertas lagunas como la falta de precisión y delimitación de los servicios de riesgo inadmisible y de riesgo alto, la falta de protección de los derechos de los ciudadanos frente a los daños ilegítimos causados por la tecnología (por ejemplo, no se reconoce el derecho a obtener indemnización por funcionamiento anormal de la IA) y la falta de previsión de mecanismos especiales de garantía ante las nuevas instituciones o ante los órganos judiciales por parte de los afectados. Sería deseable que el texto que finalmente vea la luz haga suyas muchas de las propuestas formuladas por los especialistas citados.»
Carlos B. Fernández Hernández (Redactor-Jefe de Ciberderecho-LA LEY)
«La Comisión Europea ha reiterado que la IA puede generar un amplio abanico de beneficios económicos y sociales en todos los sectores y actividades sociales. Pero también que, por sus características particulares (como la opacidad, la complejidad, la dependencia de datos o su posible comportamiento autónomo), puede tener repercusiones negativas para múltiples derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (LA LEY 12415/2007), como el derecho a la dignidad humana, el respeto de la vida privada y familiar, la protección de datos de carácter personal, la no discriminación y la igualdad entre hombres y mujeres (Exposición de Motivos del Libro Blanco de la IA, 3.5).
En mi opinión, la IA, en su situación actual, no constituye un riesgo sustancial para la sociedad democrática y el estado de derecho en el ámbito de la Administración de Justicia o de la Administración, siempre que los objetivos para los que se utilice sean los adecuados jurídica y políticamente y estén claramente definidos, los datos utilizados con esos fines sean de calidad, los algoritmos estén correctamente diseñados y entrenados al efecto y permitan su explicación y los resultados obtenidos sean correctamente utilizados por quien deba hacerlo.
Pero pensando en los desarrollos que pueden venir, creo importante subrayar que el derecho fundamental a la tutela judicial efectiva exige, en todo caso, que cualquier decisión automatizada adoptada en el ámbito administrativo o jurisdiccional, con consecuencias jurídicas para los sujetos afectados, debe poder ser explicable en sus fundamentos, datos y lógica aplicada. Esta será la única forma de asegurar la viabilidad de una acción o recurso contra esa decisión.
Vinculado a este principio, en el hoy improbable caso de utilización de sistemas inteligentes en el ámbito penal o administrativo sancionador, con carácter decisorio, el derecho a la presunción de inocencia obligará a extremar la exigencia de mecanismos seguros de aportación, impugnación y valoración de la prueba.
En cuanto a los entes privados que diseñen y comercialicen software inteligente, el proyecto de Reglamento de IA introduce una muy amplia serie de requisitos y exigencias, en los que no podemos entrar aquí. Solo apuntar que la propuesta considera que los sistemas de IA aplicados en el ámbito de la administración de justicia o de la aplicación de la ley, son consideradas de alto riesgo y, por ello, sometidos a requisitos muy estrictos de desarrollo, prueba e implementación».
Miguel Bueno Benedí (Letrado de la Administración de Justicia)
«En mi opinión, todos los beneficios que nos puede aportar la I.A. al proceso judicial deben ponderarse de manera considerable con los derechos y garantías procesales que la Ley reconoce a las partes. En concreto, considero que esta preocupación debería circunscribirse a los derechos concretos de defensa, a un juicio justo, a la presunción de inocencia y a la imparcialidad judicial. Al fin y al cabo, la I.A. funciona gracias a algoritmos creados o configurados por humanos que no son el Juez y que desconocemos en qué parámetros se han basado. Una posible solución sería la exigencia de ética y transparencia al desarrollador, de manera que se pueda conocer de forma clara los criterios que ha utilizado para llegar a una determinada decisión. Si la I.A. se va a utilizar en una administración pública, como es el ámbito de la Administración de justicia, lógico sería que ésta I.A. tuviera el mismo carácter. Otra solución en la que me consta que se está trabajando es el desarrollo de una Carta de Derechos Digitales (LA LEY 16317/2021), que formule con un lenguaje actual los derechos de ciudadanía en las relaciones digitales con la Administración de Justicia.
La Comisión Europea ya hablaba de cuatro principios que deben concurrir de forma simultánea en el desarrollo, despliegue y utilización de los sistemas de Inteligencia Artificial al considerarse un imperativo ético: respeto a la autonomía humana, principio de prevención del daño, principio de equidad y principio de explicabilidad. Considero que estos cuatro principios es lo mínimo que nuestros poderes públicos deberían asumir. En cualquier caso, lo que creo que es indiscutible es que el futuro de los actos procesales va a ir de la mano de la I.A., por lo que cuanto antes comencemos a estudiar cómo debe integrarse de manera pacífica y eficaz, antes seremos capaces de detectar y solucionar los problemas que surjan de su aplicación y los conflictos en los que puede entrar con unos derechos fundamentales a los que no se puede renunciar. Y así, regular expresamente un proceso judicial que incorpora aplicaciones de I.A. que sea garantista y proteja a todos los intervinientes.»
David Mellado Ramírez (Socio responsable de Legal en PwC España. Abogado del Estado en excedencia)
«Resulta relevante evitar cualquier sesgo que genere patrones o ahonde en discriminación por razones de raza, sexo, religión o cualquier otra circunstancias personal o familiar.
En absoluto la IA supone un jaque a la sociedad democrática, ahora bien, su función es auxiliar debiendo garantizarse un segunda o ulterior instancia humana en la revisión de los procesos y decisiones donde interviene.
La transparencia debe ser un requisito de la aplicación de la IA, de suerte que las metodologías que fundamentan esta tecnología estén accesibles y sean mínimamente comprensibles. Esto es factible en el ámbito de los Poderes públicos, no así en el ámbito privado. De ahí, la necesidad de armonizar un marco común de principios a los que someter esta tecnología».
Ana Mercedes López Rodríguez (Profesora titular de Derecho Internacional Privado. Árbitro independiente. Miembro del Consejo Asesor Académico de la Fundación de la Inteligencia Artificial Legal (FIAL))
«En el momento en que la IA llegue a entender las emociones y las máquinas se conecten unas con otras serán infinitamente inteligentes, lo que supone un riesgo para los seres humanos en muchos ámbitos, por ejemplo, en cuanto a la formación de opinión, predicción de comportamientos, toma de decisiones etc. Tendremos, por tanto, mayor necesidad de guías éticas y de seguridad o incluso, como algunos expertos han sugerido, regulaciones similares a los tratados de proliferación nuclear.
La IA puede impedir el desarrollo democrático de distintas maneras, por ejemplo, permitiendo formas más eficientes de vigilancia masiva.
Tenemos que acordar sobre de qué y cómo debemos protegernos. La tecnología es un arma poderosa si se utiliza bien. Si no se regula es como dejar un martillo encima de una mesa de cristal sabiendo que hay niños cerca. Por tanto, si queremos un mejor futuro, democrático y que aproveche los beneficios de la IA debemos consensuar su uso entre todos, porque la tecnología no es creadora.»
4º.
El «automatismo jurídico» no existe… La norma admite, incluso cuando su redacción es diáfana, diferentes interpretaciones; por eso existen las controversias y, por ello mismo, se hacen necesarios los Jueces y Tribunales. ¿Este paradigma puede quebrarse con la implementación efectiva de una Inteligencia Artificial al servicio de la Justicia? Los smart-contracts, salvando algunos matices, se orientan precisamente en esta dirección… ¿Podremos admitir cómo válida y vinculante una decisión judicial adoptada por una realidad no humana?
Pere Simón Castellano (Profesor experto en Derecho de las Nuevas Tecnologías en UNIR y Abogado)
«Los jueces no son la boca muda de la Ley, por mucho que algunos autores ilustrados (Montesquieu) soñaran con tal premisa. El Derecho no es una ciencia exacta y lo cierto es que la mayoría de los casos (fáciles y difíciles) aceptan diversas soluciones; sin embargo, algunos ámbitos o extremos son más automatizables a modo de acción (evento) y reacción (respuesta jurídica). Antes hemos hablado precisamente de sectores que ofrecen una mayor predisposición al empleo de la IA porque es más fácil extraer una conclusión o respuesta jurídica, especialmente en el ámbito contractual si las cláusulas han sido redactadas con cierta transparencia y claridad.
Es la oportunidad que tratan de cubrir los llamados smart contracts. Los contratos laborales, el contrato de seguro, los contratos en los que existe una obligación de hacer o entregar a cambio de un precio, etc. son fáciles de automatizar y, junto al Internet de las cosas y las tecnologías biométricas, entre otras aristas del desarrollo tecnológico, son capaces de detectar y dar una respuesta al incumplimiento de una de las partes contratantes, resolviendo el contrato e implementando las consecuencias que de él se derivan en virtud del contrato. ¿Esa decisión de la máquina o algoritmo será válida y vinculante? Para las partes contratantes, sin lugar a duda, sin perjuicio que dispongan del derecho a una segunda oportunidad (sistema de IA) y del derecho al recurso (jurisdicción humana). ¿Para el juzgador? Será un elemento más para su valoración en el caso que el asunto acabe en sus manos, que deberá verificar y analizar las circunstancias concretas del caso y confirmar o enmendar la decisión del algoritmo. Así que, por suerte, la IA no ha venido para substituir la función jurisdiccional, y los abogados seguirán teniendo la posibilidad de ganar casos difíciles y perder los fáciles, lo que en cierto modo encierra la magia y el valor de la profesión.»
Carlos B. Fernández Hernández (Redactor-Jefe de Ciberderecho-LA LEY)
«Como he indicado anteriormente, ningún sistema de IA tiene codificado en forma de instrucciones o criterios de toma de decisión, ni siquiera una parte del ordenamiento jurídico. Intentos anteriores de codificar el derecho, en sectores muy específicos, por medio de sistemas expertos, no llegaron a buen puerto, a causa de la denominada "explosión combinatoria", que multiplica exponencialmente la casuística e impide escalar adecuadamente los algoritmos necesarios.
Siendo ello así, y desde un punto de vista estrictamente técnico, dudo mucho de que en un horizonte ni siquiera a largo plazo, podamos pensar en sistemas inteligentes capaces de adoptar autónomamente decisiones de naturaleza jurídica, y menos en el ámbito penal o sancionador.
Y, siguiendo en un punto de vista técnico, los expertos advierten de que la IA se mueve en el terreno de la incertidumbre y la probabilidad. Por su propia naturaleza algorítmica, en la mayoría de casos su finalidad es ofrecer porcentajes de probabilidad de que un suceso se produzca o de que un dato o conjunto de datos se correspondan con un posible fenómeno (ya sea esta la imagen de un cáncer de piel, un riego de tormenta o la traducción de una frase). Pero no resolver con la certeza fáctica y argumentativa que requiere la seguridad jurídica un litigio, salvo que este sea de naturaleza muy sencilla o permita un ámbito de decisión no estrictamente sujeto a la norma (es decir, que permita un margen al precedente o a la experiencia y no tanto a un razonamiento jurídico complejo en el que intervengan una pluralidad de factores).
Sí creo posible pensar en sistemas de ayuda a la toma de decisión judicial, por medio de herramientas que permitan un análisis masivo y en gran profundidad, fáctica, jurídica y estadística, de hechos, argumentos y criterios. Incluso ante consultas mucho más complejas de las que la tecnología actual es capaz de resolver. Pero se tratará de sistemas que se limitarán (o deberían limitarse) a ofrecer al juzgador, con seguridad y rapidez, una información que hoy le puede costar mucho tiempo y esfuerzo localizar, o incluso que hoy le es imposible obtener por los medios computacionales disponibles ya sea por la complejidad de comprensión de la consulta formulada o por las exigencias algorítmicas que plantea su resolución, pero dejando al juez o tribunal la adopción de la decisión final.
En cuanto a los Smart contacts, su automatismo se refiere a la relación entre las condiciones establecidas en un código informático y un oráculo o verificador externo de la concurrencia de las condiciones pactadas. Pero entiendo que incluso en esos casos, cabrá la vía impugnatoria si una parte se considera injusta o perjudicialmente tratada (previa la reforma legislativa necesaria)».
Miguel Bueno Benedí (Letrado de la Administración de Justicia)
«No estoy tan de acuerdo con la idea de que no existe el "automatismo jurídico". Creo que es una práctica habitual y muy humana el clasificar los asuntos que se deben enjuiciar y relacionarlos inmediatamente con otros anteriores que sean iguales o parecidos con el objetivo de hacernos más sencillo el trabajo, hasta el punto de utilizar modelos con la misma fundamentación jurídica y cambiando algún dato particular aplicado al caso concreto. Si a esto le sumamos que las decisiones judiciales están amparadas por las leyes, creo que este proceso de toma de decisiones puede ser perfectamente automatizable, aunque con matices y cautelas.
Si eliminamos las emociones, el proceso mental que realiza un Juez es bastante automático, es decir, valora la prueba practicada y, a la vista del resultado, emite una argumentación jurídica con el correspondiente fallo. Justamente la valoración de la prueba y la argumentación jurídica son tareas que la I.A. puede desarrollar de una manera incluso más eficaz que las propias personas. Por eso, como decía antes, no debería cuestionarse una decisión judicial adoptada por una I.A. en los procesos que se tramitan sin oposición, aquellos cuyo trámite es muy sencillo y repetitivo (como el caso de un proceso monitorio, un verbal de cantidad o un desahucio por falta de pago), o aquellos en los que la única prueba que se debe practicar es documental. China y Estonia son dos pioneros en la materia y han desarrollado los "jueces robots" o "jueces virtuales". El funcionamiento no puede ser más sencillo: las partes presentan sus demandas y sus pruebas en formato digital, la I.A. analiza la documentación y emite una sentencia. Desde mi punto de vista, esta decisión no debería ser cuestionable bajo ningún concepto, sino todo lo contrario, perfectamente válida y vinculante.
Sin embargo, cuestión más compleja es la de aquellos procedimientos en los que entran en juego, por nuestra condición humana, la valoración de las emociones o sentimientos, como en asuntos penales o en algunos civiles como los de familia. Habría que plantearse si querríamos una I.A. que sea capaz de tener en cuenta estas emociones o, por el contrario, alejarse de ellas para adoptar una decisión no influenciada por aspectos no jurídicos.
Hay que tener en cuenta que una cosa es la aplicación de una I.A. en los procesos judiciales para hacerlos más ágiles y eficientes y, otra cosa, es la aplicación de una I.A. que "mejore" la labor de Jueces y Magistrados.»
David Mellado Ramírez (Socio responsable de Legal en PwC España. Abogado del Estado en excedencia)
«Sin duda, de hecho, lo hacemos. Las denuncias por infracciones de tráfico, o los procesos de comprobación de declaraciones fiscales están fundamentalmente gobernados por realidades no humanas, que facilitan el proceso.
La complejidad es más evidente en los supuestos de conflicto de intereses, pero en los supuestos de concurrencia de intereses es más factible. Sucede así en los procesos de obtención de una beca o por ejemplo en los supuestos en que ambas partes desean suscribir un contrato sencillo, como sucede con un arrendamiento. En tales casos es preferible la máquina que garantiza independencia frente a las partes.
Es la nota de la independencia un atributo sustantivo de la IA, pues la intervención humana está condicionada por factores, sesgos, que incluso escapan a quien toma una decisión».
Ana Mercedes López Rodríguez (Profesora titular de Derecho Internacional Privado. Árbitro independiente. Miembro del Consejo Asesor Académico de la Fundación de la Inteligencia Artificial Legal (FIAL))
«El Derecho contiene nociones como el principio de buena fe, la razonabilidad, el buen padre de familia etc., que se basan en el ejercicio de la razón, la conciencia y la discreción del adjudicador en un momento posterior. Estas nociones no se pueden codificar fácilmente en lenguaje binario porque su significado no es capaz de expresarse exhaustivamente como una cuestión de lógica.
De otro lado, las normas no surgen de las palabras que las expresan, sino de la interpretación que se les dan, que a su vez está influenciada por la cultura (jurídica) respectiva del ordenamiento al que pertenecen y el contexto concreto donde han de ser aplicadas. Por tanto, si cada norma jurídica es cultura y contexto, entonces la traducción de una norma a código informático no significa que el significado específico de la propia norma haya sido transferido, porque ese significado, es decir, el contexto cultural y del caso específico no puede ser transferido junto con el texto.
En definitiva, es complicado alcanzar el automatismo jurídico total, aunque esta sea la meta de distintas startups de LegalTech. Sin embargo, según el Índice Tecnológico del Centro CodeX de Informática Legal de la Universidad de Stanford, que actualmente contiene 1786 empresas, 517 iniciativas se dedican a la resolución de conflictos (https://techindex.law.stanford.edu).
5º.
El ejercicio de la función jurisdiccional exige de capacidades no únicamente jurídicas, hablamos de epistemología, psicología o incluso de habilidades humanas que abarcan desde la empatía hasta la asertividad. El juez es juez y aceptamos su legitimidad porque es…humano y puede llegar a comprender nuestra posición. Siendo así: ¿qué relación le espera a la «jurisdicción humana» con una eventual y posible «jurisdicción tecnológica»?
Pere Simón Castellano (Profesor experto en Derecho de las Nuevas Tecnologías en UNIR y Abogado)
«La sumisión de la segunda, la tecnológica, a la primera, la humana. Existe consenso por parte de la doctrina nacional (por ejemplo, procesalistas referentes en la materia como Jordi Nieva Fenoll o Silvia Barona Vilar) e internacional (la doctrina italiana en especial, con Fabio Basile de la Universidad de Milán y Mario Caterini de la Universidad de Calabria a la cabeza) que nos advierten que los algoritmos no pueden sustituir el juicio jurisdiccional, empero sí apoyarlo o reforzarlo, como también ha defendido un servidor en sus tesis.
Así las cosas, en el orden jurisdiccional penal, la IA puede ayudar al juzgador especialmente cuando se deben tomar decisiones basadas en el cálculo de un riesgo futuro incierto, tales como la prisión preventiva o la determinación de la libertad vigilada, la concesión del tercer grado o la libertad condicional, entre muchas otras.
En otros órdenes jurisdiccionales, la IA puede contribuir a tomar decisiones automatizadas ex ante del juicio jurisdiccional. Resolver contratos, exigir el pago de la indemnización e incluso hacerla efectiva, determinar el incumplimiento por parte de una de las partes contratantes, etc. Esas decisiones, que actúan como automatismo previo a la justicia, contribuirían a la descarga del ingente volumen de litigiosidad en nuestro país. Sin perjuicio que siempre exista un derecho al recurso o, a una segunda oportunidad frente a la decisión del algoritmo, para que el juzgador pueda en última instancia validar o enmendar a la "jurisdicción tecnológica".»
Carlos B. Fernández Hernández (Redactor-Jefe de Ciberderecho-LA LEY)
«Creo que, gracias a los sistemas inteligentes, que deberán ser fruto de un largo y minucioso trabajo de juristas y programadores, en no muchos años los jueces dispondrán de herramientas que les facilitarán la toma de decisiones para la resolución de litigios, de una potencia y capacidad que hoy no existen.
Pero no creo que lleguen a existir sistemas autónomos de resolución de conflictos jurídicos, salvo para casos jurídicamente poco relevantes, como podrán ser las multas de tráfico, o cuestiones civiles similares, susceptibles de ser sometidos a algoritmos que, en todo caso, deberán haber sido muy depurados, verificados y probados.
En todo caso, la existencia de sistemas más avanzados, exigirá, en mi opinión, haber superado un test de idoneidad y un permanente control durante todo su ciclo de vida, desde su diseño conceptual a su puesta en funcionamiento, incluyendo su fase de desarrollo y pruebas, que permita comprobar que su utilización aporta más ventajas que inconvenientes o riesgos, en una mayoría muy significativa de casos. Es decir, un debate jurídico, técnico y político de primer orden, en el que también deberían ser tenidos en cuenta otros muchos factores (económicos, sociológicos, culturales…), antes de decidir su decisión».
Miguel Bueno Benedí (Letrado de la Administración de Justicia)
«Una I.A. aplicada al proceso judicial en el ámbito de la función puramente judicial debemos entenderla como una herramienta encaminada a facilitar la labor de Jueces y Magistrados y a mejorarla en la medida de lo posible. Sería un error pensar en una aplicación que vaya a sustituir la función éstos.
Teniendo esto claro, en el corto plazo únicamente en determinados procesos mecánicos, repetitivos, sin oposición o únicamente con prueba documental, podríamos permitir que una aplicación de I.A. tuviera la última palabra (siempre con la garantía del acceso a los recursos legalmente previstos, por supuesto). En el resto de supuestos, se requiere de la acción humana para corregir las posibles deficiencias o errores de una I.A. y ello no sólo por la responsabilidad que conlleva una decisión judicial, sino también por la confianza de la sociedad en general. Por ahora nos podríamos conformar con que la jurisdicción tecnológica ayude a la jurisdicción humana en la investigación, interpretación y aplicación de la ley a unos hechos determinados.
En el largo plazo la cuestión debería ser objeto de debate, pues un desarrollo correcto del algoritmo que tenga en cuenta todas las variables deseadas y el estado de opinión de la sociedad podría llegar no sólo a juzgar más rápido sino mejor.»
David Mellado Ramírez (Socio responsable de Legal en PwC España. Abogado del Estado en excedencia)
«En el marco del proceso jurisdiccional hay muchas actuaciones, la mayoría, que no exigen tales habilidades humanas, centrarse exclusivamente en decisiones complejas distrae el debate principal. A modo de ejemplo el impulso procesal no debiera estar en manos de personas, pues ralentiza el proceso mismo, deben ser las máquinas las que gobiernen el procedimiento del proceso».
Ana Mercedes López Rodríguez (Profesora titular de Derecho Internacional Privado. Árbitro independiente. Miembro del Consejo Asesor Académico de la Fundación de la Inteligencia Artificial Legal (FIAL))
«De complementariedad y apoyo. Solamente en supuestos de gran simplicidad podría sustituirse la jurisdicción humana por una jurisdicción tecnológica. Aunque la jurisdicción tecnológica pueda llegar a ser más incluso eficiente, previsible, objetiva que la jurisdicción humana y las máquinas pudiesen llegar a ser empáticas a través del aprendizaje, le faltaría legitimidad. La justicia puede definirse como juzgar respetando la verdad y dando a cada uno lo que le corresponde. Sólo un juez humano tiene legitimidad para decidir lo que le corresponde a otro humano. Debemos proteger los atributos humanos, como los errores, los misterios y las ineficiencias para que no corran el riesgo de verse suprimidos por la tecnología.»
6º.
Quizá en el marco del proceso sea donde la Inteligencia Artificial puede sumar aportes realmente significativos: automatización de procedimientos, propuesta de resoluciones, generación de estadísticas, ejecución de operaciones vinculadas a decisiones judiciales, comprobación de cumplimientos cuantitativos… Ahora bien, ¿estas cuestiones planteadas sobre la tramitación del procedimiento son realmente I.A? ¿La posibilidad anterior excluye el control humano o sería conveniente que, incluso en asuntos de trámite, siempre exista una autoridad humana responsable?
Pere Simón Castellano (Profesor experto en Derecho de las Nuevas Tecnologías en UNIR y Abogado)
«No todas las tecnologías que pueden tener un uso aceptable y deseable en los procesos que mencionas son necesariamente IA, aunque la mayoría sí, porque incorporan la facultad humana de procesar y comprender lenguaje humano expresado en textos, imágenes, vídeos, etc. y en base a ello ofrecer resultados de calidad. Se trata de un nuevo paradigma que puede reforzar indubitadamente nuestra Administración de justicia. La comprobación de cumplimientos cuantitativos por juzgado, la generación de estadísticas, la ejecución de operaciones vinculadas a decisiones judiciales, etc. permiten mejorar la eficacia y la eficiencia en la prestación de un servicio fundamental. Ahora bien, muchos de estos procesos no son ni implican juicio jurisdiccional propiamente dicho y por ende no hace falta ni es necesaria la intervención humana. Por el contrario, si se trata de trámites en los que se prevé la posibilidad de recurso por las leyes procedimentales, sí habría que garantizar que ese recurso puede formularse frente a los resultados o propuestas que arroja el algoritmo y, en último caso, ante la "jurisdicción tecnológica". Bien es cierto que la mayoría de los trámites a los que hacías referencia no requieren o incorporan esa posibilidad de recurso.»
Carlos B. Fernández Hernández (Redactor-Jefe de Ciberderecho-LA LEY)
«Creo que esa mejora de procedimientos, propuesta de resoluciones o generación de estadísticas sobre podrá conseguirse a partir de sistemas inteligentes (es decir, orientados a optimizar la obtención de unos resultados previamente definidos), basados en grandes volúmenes de datos jurisdiccionales y legales.
Pero todas esas serán herramientas al servicio de los jueces, los abogados y el resto de operadores que puedan intervenir en el sistema judicial, quienes, en todos los casos y en ámbito de sus respectivas obligaciones, deberán adoptar personalmente las decisiones que les correspondan y bajo su responsabilidad.
Tanto el RGPD como la propuesta de Reglamento europeo sobre IA insisten en la necesidad de que siempre se produzca una intervención humana en la fase final de la adopción automatizada de decisiones. De hecho, la propuesta de Reglamento detalla las características y requisitos que debe tener esa posibilidad de intervención humana».
Miguel Bueno Benedí (Letrado de la Administración de Justicia)
«Es opinión mayoritaria de la sociedad que la Justicia en nuestro país es lenta, carente de recursos, obsoleta y está hundida en papel. Esta opinión no se refiere precisamente a la labor del Juez dictando sentencia, sino a todo el proceso y trámites previos a ésta. Lo más visual de la justicia es el Juez y por eso imaginamos la I.A. como un juez robot que dicta sentencia. Sin embargo, todo proceso judicial lleva detrás numerosas decisiones que hay que adoptar, por muy mecánicas que sean muchas de ellas. Imagino la revolución que supuso cambiar de la tramitación manual de los procedimientos a un trámite guiado a través de aplicaciones informáticas con modelos de resoluciones. Por tanto, ¿por qué no vamos a considerar como I.A. una aplicación que nos lleve un paso más allá en la tramitación de expedientes judiciales? Dos ejemplos que me gustan y siempre menciono cuando me preguntan son los siguientes: en el ámbito civil, una I.A. que sea capaz de reconocer un documento de demanda y la documentación que se adjunta, de tal manera que, una vez analizado, directamente proponga un Decreto de admisión de la misma o una Diligencia de ordenación con los requisitos que deben subsanarse; y en el ámbito penal, una I.A. que sea capaz de recoger los términos de una conformidad del acusado y, directamente, saque una propuesta de sentencia y consiguiente modelo de requerimiento para el cumplimiento de las penas al penado.
No obstante, y más aún en las fases iniciales de una posible implementación práctica, considero la necesidad de que un humano "esté al volante". Es decir, la sociedad no va a aceptar la exigencia de responsabilidad a una máquina de manera que, si ésta falla, debe existir un responsable "humano" detrás. Por lo tanto, en el ámbito de la tramitación procesal que estamos hablando, considero imprescindible la supervisión del Letrado de la Administración de Justicia para que en el momento en que se detecte el mínimo error, poder subsanarlo y evitar una posible nulidad de actuaciones u otra consecuencia fatal para el curso de las actuaciones.»
David Mellado Ramírez (Socio responsable de Legal en PwC España. Abogado del Estado en excedencia)
«La sencillez de la decisión no quita valor a la IA, al contrario, nos da confort, porque acaban siendo labores tediosas con poco valor intelectual, que por consecuencia del cansancio acaban "abandonadas" por el humano por lo poco gratificantes.
El control humano debe permanecer, pero debe encarecerse, bien limitando los supuestos, bien limitando los tiempos en que puede tener lugar».
Ana Mercedes López Rodríguez (Profesora titular de Derecho Internacional Privado. Árbitro independiente. Miembro del Consejo Asesor Académico de la Fundación de la Inteligencia Artificial Legal (FIAL))
«Los aportes mencionados en el marco del proceso son el objetivo de la denominada Legaltech, término que va referido de forma general al empleo de tecnología y software innovadores, con objeto de agilizar y mejorar los servicios jurídicos, pero no son solo IA. Dentro de la Legaltech podemos encontrar:
-
(i) tecnologías que facilitan la gestión del conocimiento y el tratamiento de los datos;
-
(ii) herramientas de management; y
-
(iii) soluciones de Derecho sustantivo.
Las mencionadas en tercer lugar son tecnologías que proporcionan soluciones que ayudan o incluso reemplazan la intervención humana en la ejecución de tareas jurídicas específicas. Esta categoría incluye varios subcampos, como herramientas para autogenerar contratos o adquirirlos directamente sin tener que pasar por un abogado, e-discovery, presentar reclamaciones legales de todo tipo, resolución de disputas en línea, análisis jurídico y predictivo de casos, así como tecnologías basadas en blockchain, en particular, los denominados smart contracts.
Enlazando con la respuesta a la pregunta precedente sobre la legitimidad de decisiones, cuando se trate de dictar una resolución que ponga fin a un litigio, estas tecnologías requerirían, a mi entender, la supervisión de una autoridad humana responsable.»
7º.
Es casi imposible elaborar un pronóstico, pero la imaginación es un valor que siempre debemos abrazar: ¿Cómo será la relación entre la Inteligencia Artificial y la Justicia dentro de diez años?
Pere Simón Castellano (Profesor experto en Derecho de las Nuevas Tecnologías en UNIR y Abogado)
«Deben ir juntas, de la mano. Resulta imposible imaginar un futuro en el que la tecnología no juegue un rol o papel central en nuestra sociedad, lo que se puede corroborar con el análisis de las enormes transformaciones sociales de las dos últimas décadas. La tecnología ha avanzado tanto en tan poco tiempo que nuestra fisiología no ha cambiado en absoluto y nuestro cerebro es incapaz de entender las profundas implicaciones que de ello se derivan. Si echamos la vista atrás ni tan siquiera seremos capaces de atisbar el punto de no retorno. La IA está predestinada a tener un papel también central en la Administración, en general, y en la Administración de justicia, en particular, pudiendo contribuir apoyando al juzgador en la noble función de impartir justicia, de juzgar y hacer ejecutar lo juzgado. La tramitación será mucho más ágil, ciertos procedimientos estarán automatizados, se reducirá la tasa de litigiosidad y la justicia se reservará a los casos más graves, relevantes o a los derivados de la falta de acuerdo, siempre y cuando este sea posible. La ciudadanía y el mercado así lo exigen, y la justicia está condenada a convivir y emplear los recursos tecnológicos a su alcance con el fin de ser reflejo de la sociedad que ordenan a través de sus resoluciones y sentencias.»
Carlos B. Fernández Hernández (Redactor-Jefe de Ciberderecho-LA LEY)
«Creo que en diez años la justicia dispondrá de sistemas analíticos y predictivos muy potentes y depurados, que, junto con una automatización de procesos (que no son necesariamente inteligentes, aunque sí se apoyen en estas tecnologías), agilizará y dotará de mayor seguridad al trabajo de los operadores jurídicos en su conjunto.
Estos avances incluirán desde la resolución automatizada de conflictos menores, con supervisión humana, a la automatización de procesos, con la generación de los documentos pertinentes en cada caso.
A la vez, permitirán la adopción por los jueces de decisiones más documentadas y, previsiblemente, fundamentadas, con plena seguridad jurídica para las partes avanzadas, a partir de consultas muy complejas hoy irresolubles.
Por otra parte, el uso conjunto del dato y de sistemas de analítica avanzada, permitirá a los órganos rectores de la justicia una mejor organización de recursos, anticipando problemas o litigios por venir, y mejorando la dotación de medios necesarios.
Igualmente, una analítica legal avanzada permitirá identificar tendencias indeseables, cuellos de botella inadvertidos y, en general, aspectos de mejora del sistema que los medios y recursos actuales no permiten. Incluso podría dar lugar a una profunda revisión de la legislación vigente, a fin de identificar incoherencias, contradicciones o insuficiencias que sea necesario mejorar, previo el correspondiente proceso legislativo».
Miguel Bueno Benedí (Letrado de la Administración de Justicia)
«Al igual que me considero un gran entusiasta del empleo de las nuevas tecnologías, también soy crítico y debo mostrar pesimismo. Si tenemos en cuenta el hecho de que ha sido gracias a la pandemia sufrida por la COVID-19 cuando se ha impulsado el uso de la videoconferencia en los Juzgados y Tribunales a pesar de ser una herramienta ya contemplada en la Ley 18/2011, de 5 de julio (LA LEY 14138/2011), probablemente en 10 años seguiremos "imaginando" la aplicación de la I.A. en los procesos judiciales.
Sigo las noticias sobre I.A. en la Administración de Justicia y apenas veo cómo el CETEAJE comienza a tratar el tema de manera muy tímida en algunos ámbitos judiciales, como el proyecto piloto del sistema que permitirá la textualización de las vistas. Sin embargo, de ahí al "Judicial Tech" del que habla DELGADO MARTÍN, J. queda mucho recorrido.
Lo que no deberíamos obviar es que el crecimiento de aplicaciones con I.A. está aconteciendo de forma exponencial y probablemente estemos viviendo el nacimiento de la edad dorada de esta tecnología. No seamos "pringaos" en la Administración de Justicia y empecemos ya a interesarnos por esta nueva tecnología que nos puede llegar a facilitar muchísimo el trabajo. Hay que romper la brecha digital y aprender que la I.A. puede llegar a ser uno de nuestros mejores aliados para contribuir a mejorar la opinión de la justicia.»
David Mellado Ramírez (Socio responsable de Legal en PwC España. Abogado del Estado en excedencia)
«Armónica. De un lado, las labores predictivas nos permitirán evitar conflictos, y de otro la agilización de los procesos dará más protagonismo al ser humano, al ocupar un lugar preponderante en los procesos».
Ana Mercedes López Rodríguez (Profesora titular de Derecho Internacional Privado. Árbitro independiente. Miembro del Consejo Asesor Académico de la Fundación de la Inteligencia Artificial Legal (FIAL))
«La tecnología se aplicará para hacer que la Justicia humana sea más ágil y efectiva, pero nunca para sustituirla. Si dejamos que las máquinas evalúen y decidan sobre nuestro comportamiento, los humanos ya no seremos dueños de nuestro destino.»