Cargando. Por favor, espere

IA, democracia y derechos fundamentales

LA LEY 8667/2023

La inteligencia artificial (IA) se ha convertido en un tema central de la agenda de regulación digital de la Unión Europea (UE). La Comisión Europea ha hecho hincapié en repetidas ocasiones en la necesidad de fomentar de manera urgente la adopción de tecnologías de IA en la UE, las recientes reformas legislativas, como las relativas al marco de protección de datos de la UE con el Reglamento de Datos (la Data Act) y otros aspectos del mercado único digital, han incluido disposiciones centradas en la IA. Estas disposiciones coexisten con la nueva joya de la corona del nuevo enfoque regulador de la UE basado en el riesgo: el Reglamento europeo de IA (el RIA o la AI Act), un instrumento jurídico horizontal que pretende fomentar la adopción de sistemas de IA seguros, fiables y centrados en el ser humano en toda la Unión.

Portada

El RIA se propuso inicialmente en abril de 2021 y el pasado viernes 8 de diciembre (cuando el presente número de la Revista estaba ya totalmente cerrado) fue alcanzado el acuerdo político para cerrar el texto, que todavía tiene que ser aprobado finalmente por el Consejo y el Parlamento Europeos, como paso previo a su publicación en el DOUE y entrada en vigor de forma escalonada hasta finales de 2026. Esta norma del Derecho digital europeo pretende convertir a la UE en un centro de IA de categoría mundial y garantizar la seguridad y fiabilidad de los sistemas de IA utilizados en la UE. Expresa el compromiso de la Unión en una regulación que sitúa en el centro de la misma a la persona. Más aún, se espera que promueva los valores europeos en todo el mundo con el llamado “efecto Bruselas” en la línea del Reglamento General de Protección de Datos (RGPD) (LA LEY 6637/2016). Pero el desarrollo de las tecnologías de IA está dirigido principalmente por un puñado de empresas con sede, en su mayor parte, fuera de la UE. ¿Cómo se supone que un instrumento jurídico interno del ordenamiento jurídico de la UE va a tener un impacto global en la difusión de los valores de la UE para la gobernanza de la IA? ¿Cómo afectan las aplicaciones enriquecidas con IA a la propia democracia y los derechos fundamentales?

Precisamente a analizar los efectos positivos y negativos en estos ámbitos se destinan los contenidos del presente número de la Revista.

Inaugura el número el excelente estudio de Tomás de la Quadra-Salcedo Fernández del Castillo titulado “Derechos y libertades y neurotecnologías convergentes aplicadas a la actividad cerebral”, donde examina el impacto de las ciencias neurológicas y las tecnologías a ellas asociadas y cómo una sociedad democrática debe reaccionar para que se sigan promoviendo los valores de libertad y justicia. Después, Nilton Blandino López en su trabajo “Los retos del derecho en la era digital” expone el impacto en la ciencia jurídica de la tecnología blockchain, el metaverso y la propia inteligencia artificial.

Continúa el número con el estudio de Alfonso Peralta Gutiérrez que lleva por título “La estrecha conexión entre la inteligencia artificial y la privacidad”, y dedicado a estudiar la relación entre la inteligencia artificial y la privacidad, y cómo proteger los datos personales en este contexto. Luego Antonio Anselmo Martino en su trabajo “Democracia y sistemas inteligentes: ventajas y riesgos” traza una minuciosa cartografía de los efectos beneficiosos para la democracia que trae la IA -empoderamiento; estar mejor informados; participación en los asuntos públicos; mayor sentido cívico; mayor control de los actos públicos; más oportunidades; más igualdad; más organización de la sociedad civil y mayor nivel de debate político-, sin olvidar de sus riesgos más preocupantes -sesgo algorítmico; manipulación de la información; vigilancia masiva; concentración de poder; desinformación y pérdida de control humano-.

A renglón seguido, Amalia Lozano España en su artículo “El control de la publicidad política personalizada durante los procesos electorales a raíz del asunto Cambridge Analytica y la Ley de Servicios Digitales” analiza críticamente los problemas derivados de las campañas electorales basadas en datos y el microtargeting, en cuanto plantean riesgos significativos para la integridad de los procesos democráticos al hacer viable una manipulación más efectiva de los votantes a través de la personalización extrema de los mensajes y anuncios. Por último, el conjunto de estudios lo cierra el de Piedad González Granda, “Medios tecnológicos y uso de la Inteligencia Artificial en el ámbito judicial: una mirada desde el análisis de la ética judicial”, que se ocupa de la ética judicial desde el análisis y la valoración de los dictámenes de las Comisiones de Ética Judicial, española e iberoamericana respectivamente.

Por su parte, la sección NOTAS E INFORMES contiene tres trabajos: “Sobre las últimas tendencias en ciberamenazas. A propósito del informe anual de la Agencia de la Unión Europea para la Ciberseguridad”, elaborado por uno de nosotros, “Estructura y contenido del Real Decreto 817/2023, de 8 de noviembre (LA LEY 29419/2023), por el que se establece un entorno controlado de pruebas (sandbox), para el ensayo de sistemas de inteligencia artificial”, de Carlos Fernández Hernández, y “El Consejo de la UE aprueba definitivamente el Reglamento de datos”, también de este último autor.

En nuestra sección COMENTARIOS DE JURISPRUDENCIA, Roberto Carlos Rosino Calle analiza la sentencia del TJUE de 9 de noviembre de 2023 (asunto C-376/22 (LA LEY 279346/2023), Google Ireland y otros).

Cerramos este número con la reseña de la obra Infocracia del filósofo surcoreano pero afincado en Berlín Byung-Chul Han, que se ocupa precisamente de los retos que para la democracia y los derechos fundamentales pueden traer consigo la digitalización y la inteligencia artificial.

El Director

José Luis Piñar Mañas

El Co-Director

Moisés Barrio Andrés

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll