Cargando. Por favor, espere

Portada

- I -

En el nivel básico de la IA destinado al consumo, la sustitución de las decisiones humanas por el designio probabilístico de la «máquina», será irremediable.

Pero, en el ámbito jurídico, tanto en lo que atañe a la creación como a la aplicación del Derecho, funciones que a menudo se entremezclan, tal deriva debe evitarse a toda costa.

La IA no es tal. La inteligencia comprende la nota de capacidad de ver la relación entre cosas que aparentemente no la tienen. Es creativa. La IA es pura estadística predictiva. Ni siquiera tiene que ser certera, ni mucho menos justa.

¿Cómo va a valorar la IA «la realidad social del tiempo en que han de ser aplicadas» las normas jurídicas, o a «ponderar equidad» en ello? ¿Cómo va a proceder a su aplicación analógica o a valorar la buena fe o el abuso de derecho en su práctica? ¿Cómo va a aplicar principios generales del Derecho no positivizados?, etc.; por no hablar de las «peculiaridades del caso concreto», de los principios de rogación y congruencia y tantos otros que determinarán soluciones distintas para casos aparentemente iguales, que no lo son.

Es por ello que actualmente se ha señalado que debe existir en este ámbito una «reserva de humanidad» como exigencia constitucional de que determinadas funciones decisorias queden en manos de seres humanos (Solé).

Debe evitarse a toda costa aquí la instauración de una «dictadura de la IA» (Lassalle), por tratarse de una esfera en la que el ser humano debe declararse, con carácter universal, como insustituible.

Un ámbito en el que el Derecho como instrumento de la Justicia o «ars boni et aequi» precisa de la insustituible razonabilidad, creatividad y sensibilidad que solo la mente y el «alma» o «conciencia» humana, pueden proporcionar.

- II -

El artículo 57 del Real Decreto-ley 6/2023, de 19 de diciembre, sobre «medidas de eficiencia digital y procesal en el servicio público de Justicia», regula lo que denomina «actuaciones asistidas», considerando en su apartado 1 como tales aquéllas «para las que el sistema de información de la Administración de Justicia genera un borrador total o parcial de documento complejo basado en datos, que puede ser producido por algoritmos, y puede constituir fundamento o apoyo de una resolución judicial o procesal».

Al hilo de lo anteriormente señalado, estimamos excesivo este precepto en la medida en que el denominado borrador no debiera nunca poder «constituir fundamento» de una resolución judicial, sino simplemente «apoyo» para la elaboración de la misma.

La redacción del precepto, tal y como está, puede derivar en una «validación» cada vez más automatizada del borrador algorítmico, creando una deriva extraordinariamente peligrosa, por alejamiento de la realidad y del verdadero sentido de la Justicia del caso concreto.

Aunque seguidamente el precepto establece que «en ningún caso el borrador documental así generado constituirá por sí una resolución judicial o procesal sin validación» de la autoridad competente y que este solo se genera a voluntad del usuario y puede ser libre y enteramente modificado por él, creemos que su preconstitución como posible «fundamento» de la resolución judicial con carácter previo, le dota de un valor preeminente, que en ningún caso debiera tener.

Aunque más adelante se indique también en el precepto que «la constitución de la resolución judicial o procesal requerirá siempre la validación del texto definitivo» bajo la responsabilidad de la autoridad competente, no debiera existir tal posibilidad de «validación», que terminará decantándose por pura inercia o comodidad.

En definitiva, en nuestra opinión, los sistemas algorítmicos en el ámbito judicial pueden constituir apoyo para la confección de resoluciones judiciales o procesales, pero nunca debieran ser su exclusivo «fundamento» , debiendo estar prohibida terminantemente su «validación».

El artículo citado debiera ser derogado o reformado con carácter urgente.

Scroll