Cargando. Por favor, espere

Portada

Existe el riesgo de mitificar la IA como una tecnología realmente «inteligente», es decir, desvincularla de la inteligencia natural humana que está detrás de la algorítmica y de la creación de modelos matemáticos que se ajustan a problemas específicos para resolverlos. Es cierto que la IA almacena y gestiona ingentes cantidades de datos, que supera con creces la capacidad del cerebro humano, incluso la IA generativa y relacional nos proporciona respuestas que se parecen a un ejercicio de genuina inteligencia, pero en realidad no deja de ser un ejercicio de simulación en el que se entrecruzan y relacionan millones de datos.

La IA no debería pues convertirse en un sustitutivo del pensamiento crítico de los seres humanos ni anular su capacidad de razonar lógicamente ni impedir que tomen sus propias decisiones aún a riesgo de equivocarse.

Las aplicaciones informáticas impulsadas por las matemáticas, los modelos fundacionales de IA generativa, los sistemas de software diseñados con algoritmos de aprendizaje automático y profundo (machine learning - deep learning) pueden estar hechas con buena intención, pero al estar basadas en datos y decisiones que opacan prejuicios, malentendidos y sesgos humanos deben ofrecer transparencia, revelando los datos de entrada que utilizan, así como los resultados de su selección de datos, y por supuesto, deben estar abiertas a la rendición de cuentas (accountability) de auditorías que aseguren su buen funcionamiento y atiendan a la obligación de responsabilidad legal (liability).

Pero no basta con exigir solamente una IA centrada en el ser humano, justa, responsable e inclusiva en sus decisiones automatizadas, cuyos sistemas algorítmicos funcionen de manera transparente, confiable y segura; como ciudadanos no podemos eludir nuestro compromiso ético-jurídico con la defensa de los valores superiores que inspiran la democracia, la constitución y el Estado de Derecho, ni tampoco podemos desentendernos, como miembros de la especie humana, del deber de mantener solidariamente el legado cultural del humanismo, cuyos fundamentos iusfilosóficos están en plena sintonía con el desarrollo científico-tecnológico, siempre que sea respetuoso con los derechos humanos, con especial atención a la autonomía, la dignidad y la integridad moral de las personas.

La lección de clausura de la 5.ª edición del Diploma de Alta Especialización en Legal Tech y transformación digital (DAELT), de la Escuela de Práctica Jurídica de la Universidad Complutense de Madrid, que correrá a cargo de Fernando Llano Alonso, Decano de la Facultad de Derecho y Catedrático de Filosofía del Derecho de la Universidad de Sevilla, abordará estas cuestiones con especial atención al modo de armonizar el desarrollo de la IA con los principios democráticos y los valores del humanismo digital. Junto al ponente, también intervendrán Moisés Barrio Andrés, Letrado del Consejo de Estado, Profesor de Derecho digital y director del programa y Cristina Retana Gil, Directora de Contenidos e Innovación de Aranzadi LA LEY.

El acto tendrá lugar el próximo jueves 6 de junio, de 19 a 20 horas, en el Salón de Actos de la Escuela de Práctica Jurídica de la Universidad Complutense (C. Amaniel, 2, Madrid). También podrá seguirse vía streaming.

Toda la información e inscripciones en este enlace.

Scroll