Por Ilier Navarro.- El cambio de paradigma antropocéntrico al robocéntrico plantea múltiples retos éticos en el desarrollo de la inteligencia artificial (IA) y en su regulación jurídica. En todo caso, las tecnologías disruptivas deben estar al servicio del ser humano. Así se destacó durante el acto de clausura de la Quinta edición del Diploma de Alta Especialización en Legal Tech y Transformación Digital, celebrado el pasado día 6 en la Escuela de Práctica Jurídica de la Universidad Complutense de Madrid (UCM) y cuya grabación puede verse en este enlace, que en esta edición ha contado con 31 alumnos, profesionales jurídicos del sector público y privado de España y Latinoamérica.
«El profesional jurídico que quiera sobrevivir tiene que ser digital por defecto», subrayó el profesor Moisés Barrio, letrado del Consejo de Estado, profesor de Derecho digital y director del programa, en su intervención. Barrio puso el acento en un enfoque centrado en el humanismo digital frente a la pura tecnología, basado en una mirada «respetuosa y centrada en el ser humano» porque «los algoritmos predictivos pueden hacer superfluo el juicio humano y convertir las predicciones algorítmicas en profecías autocumplidas», alertó.
El profesor Barrio detalló los cuatro pilares del humanismo digital que defiende: la imagen central del ser humano en la era digital, para evitar tratarlo como una máquina; el control sobre la tecnología digital; la alineación de la tecnología digital con los valores humanos, que deben aplicarse por diseño y por defecto; y, por último, la interdisciplinaridad y la educación, basada en la interacción entre los científicos y técnicos con expertos en humanidades y ciencias sociales, y viceversa, para una compresión más holística de los problemas. Son cuestiones que se deben abordar desde la práctica jurídica, subrayó.
IA con conocimiento humano
También intervino Cristina Retana, profesora del programa y directora de Innovación y Contenidos de Aranzadi LA LEY, que reiteró que las nuevas tecnologías no pueden suplir el conocimiento de los profesionales del Derecho, «pero son herramientas necesarias». Los principios de innovación y rigurosidad deben prevalecer en todo el ecosistema de tecnologías legales que les dan apoyo.
Los sistemas de inteligencia artificial generativa, que permiten un diálogo fluido comparable al de una persona, «técnicamente funcionan realizando cálculos probabilísticos de la palabra que viene a continuación sin ser consciente de lo que está hablando ni comprender la relación entre esos fragmentos». Es indispensable vigilar que los contenidos generados sean correctos y que no sean alucinaciones —invenciones de la IA cuando no encuentra una respuesta—.
«En un reciente estudio de profesores de la Universidad de Stanford en EEUU se estima que ChatGPT en el ámbito legal puede “alucinar” un 43%, lo que supone un grave problema si se utiliza sin supervisión», relató la experta. «Algo crítico en la excelencia que se exige al trabajo jurídico y que pueden generar efectos colaterales graves en los clientes de los profesionales del Derecho. En consecuencia, la supervisión y la comprobación de cualquier respuesta en fuentes fiables es crítica», afirmó.
A la hora de determinar quién es el responsable de estos errores, algunos basados en los sesgos en sus entrenamientos, «el reglamento europeo será crítico». Y recordó que las herramientas de Aranzadi LA LEY se basan en el respeto de la ética y de la seguridad jurídica, fruto de la colaboración de abogados e ingenieros que trabajan sobre una gran base de datos y de conocimientos. «La inteligencia artificial tiene que estar ligada al conocimiento humano», concluyó.
Dilemas éticos de la IA
El cierre de la jornada corrió a cargo de Fernando Llano, catedrático de Filosofía del Derecho y decano de la Universidad de Sevilla, quien pronunció la lección de clausura.
Frente a las críticas sobre que Europa peca de ingenuidad, Llano cree que «es mucho mejor una regulación que la selva o que la indefensión absoluta» y considera «tranquilizador que la Administración está presente».
El experto recordó que existen tres modelos de regulación de la IA. En el norteamericano, ultraliberal, las propias empresas asumen la responsabilidad, pero está en entredicho porque «les trae a cuenta pagar las sanciones que anualmente les impone la UE porque, con esa mala praxis o praxis dudosa desde el punto de vista deontológico, le resulta rentable», explica.
El segundo modelo es el de China, en el que es el Estado el que tiene el control de los datos. Y el tercer modelo es el europeo, que se basa en el Reglamento Europeo de IA (RIA o AI Act) y al que calificó de «antropodatista» porque «somos nosotros los soberanos de nuestros datos y decidimos lo que hacemos con ellos».
También habló de la visión transhumanista, un proyecto de mejora de la humanidad tanto a nivel físico, intelectual y emocional. En este sentido, el catedrático destacó la normativa de diagnóstico genético preimplantacional para evitar, por ejemplo, que nazca un niño con trastornos hereditarios. Esto abre una puerta a posibles malas prácticas y en Suiza o Alemania está prohibido, pero aquí «la Administración está presente», señaló.
Otro foco de reflexión fue la convivencia con robots colaborativos de los que cada vez somos más dependientes. En este campo hay iniciativas de interés, como la del Parlamento Europeo en 2018, que encargó a unos expertos analizar si es posible reconocer la personalidad electrónica. «Esta legislación que tenemos, de responsabilidad civil, empieza a no encajar bien en esta nueva experiencia jurídica que ya estamos viviendo», destacó el experto.
Para Llano, a la par que la neurociencia, se debe desarrollar un neuroderecho para evitar invasiones graves a nuestra privacidad y advirtió del choque de la justicia argumentativa frente a la predictiva: si una persona tiene un conflicto legal y sabe que la probabilidad de ganar es del 10%, puede preferir un acuerdo para ahorrar tiempo y dinero.
El catedrático recordó que «es muy necesaria la ética de la inteligencia artificial, sobre todo aplicada al mercado» y recordó los cinco principios de Floridi que ha tenido en cuenta el legislador europeo como base para lo que será el reglamento de inteligencia artificial, poniendo al ser humano en el centro. Son la no maleficencia, es decir, no dañar; la benevolencia, buscar el bien; la justicia, repartir las cargas y los bienes; la transparencia; y la explicabilidad, que tienen relación con ser responsables.
La conclusión para Llano es que «este es uno de los momentos importantes de la humanidad» porque se produce poco a poco un cambio desde el paradigma centrado en lo humano a otro robocéntrico. Pero reiteró que la IA tiene carácter antropocéntrico y antropogénico: es el ser humano el que la crea y el que tiene que estar en el centro de sus avances e innovaciones.
La grabación íntegra del acto puede consultarse en este enlace.
INFORMACIÓN SEXTA EDICIÓN 2025 |
Del 7 de febrero al 13 de junio de 2025 tendrá lugar la VI edición del «Diploma de Alta Especialización en Legal Tech y Transformación Digital» (DAELT). La matrícula se puede realizar, sin interrupción, hasta el comienzo del curso. Las plazas son limitadas y se cubrirán por orden de solicitud de inscripción. En este enlace puedes consultar el plan de estudios y toda la información sobre profesorado, horarios, matrícula, bonificaciones y descuentos. |