Cargando. Por favor, espere

Portada

Carlos B Fernández. Abordar las implicaciones jurídicas de la Inteligencia Artificial (IA) requiere de dos pasos ineludibles. En primer lugar, el jurista debe disponer de un conocimiento, al menos básico, de los fundamentos de esta disciplina que le permita entender qué se debe y cómo se puede regular la misma. En paralelo, y del mismo modo, el profesional de la tecnologia debe conocer los principios básicos del ordenamiento que todo desarollo tecnológico debe respetar, so pena de incurrir en la ilegalidad. A partir de ese conocimiento mutuo, que impone un mutua obligación de estudio de ambas disciplinas por parte de unos y otros profesionales, será necesario un permanente diálogo entre ambos tipo de profesionales, para mantener al día ese conocimiento mutuo. No cabe otra opción.

La IA es un conjunto de herramientas informáticas de fuerte componente matemático y algorítmico, en continua evolución, cuyo uso se está extendiendo a múltiples sectores de actividad. ChatGPT es su ejemplo más visible en la actualidad.

Esta creciente difusión, junto con el nuevo marco regulador de esta disciplina que está elaborando la Unión Europea (y la ya existente en España), abrirá a los profesionales del Derecho nuevos horizontes de actividad y crecimiento, exigiéndoles, a la vez, un esfuerzo de estudio y aproximación a sus principales características.

Pero, como hemos indicado al principio, en paralelo con esta circunstancia y al igual que ocurre con otras áreas del Derecho relacionadas con la tecnología, como es la protección de datos, la ciberseguridad o las criptomonedas, el diálogo abierto y fluido entre tecnólogos y juristas resulta imprescindible para que unos y otros puedan conocer y entender las exigencias y limitaciones que establece cada una de sus disciplinas.

Esta fue, en buena medida, la intención de “Claves sobre Inteligencia Artificial y Derecho”, dirigido por Pablo García Mexía. Un libro breve pero muy relevante, por cuanto aborda los tres aspectos más relevantes sobre esta cuestión: sus fundamentos técnicos, su problemática jurídica y el anticipo de su futuro marco regulatorio.

Aunque publicado a finales del noviembre de 2022, el vertiginoso avance experimentado en este campo durante los últimos meses, obliga a una puesta al día de los principales aspectos en torno a los que giraba el libro (dejando aparte su futura regulación, que continúa su proceso de elaboración).

En estas entrevistas paralelas, Oriol Pujol, Catedrático de Ciencias de la Computación e Inteligencia Artificial en la Universitat de Barcelona, y Pablo García Mexía, Director de Derecho Digital en Herbert Smith Freehills y Letrado de las Cortes, abordan los más relevantes aspectos técnicos y jurídicos de la IA.

Son unas reflexiones de alto nivel, a partir de unas preguntas que pretender acercar al lector a los aspectos más relevantes, aunque frecuentemente poco abordado, sobre las cuestiones técnicas y jurídicas de la IA.

Oriol Pujol, Catedrático de Ciencias de la Computación e Inteligencia Artificial en la Universitat de Barcelona – “La IA es un espejo de la sociedad. Se limita a replicar aquello “que ve” y, por ello, puede escalar los sesgos y las discriminaciones que tácitamente aceptábamos”.

Diario LA LEY. En “Claves de inteligencia articial y Derecho” usted señala que “la IA es la refinería donde se procesa el nuevo petróleo de la sociedad y la economía, que son los datos” ¿qué implicaciones tiene esta consideración?

Oriol Pujol. La metáfora hace referencia a que los datos crudos aún están lejos de poder aportar todo su valor. Para ello es necesario su curación, transformación, uso a nivel descriptivo, diagnóstico, predictivo o prescriptivo. Los datos son una pieza fundamental, pero son necesarias tanto la calidad de estos como las herramientas que permiten convertir esos datos en predicciones o prescripciones con valor.

DLL. ¿Hasta qué punto puede considerarse el de “inteligencia artificial” como un concepto equívoco, que lastra la comprensión de las posibilidades reales de esta tecnología?

OP: El concepto de IA alude directamente al conjunto de técnicas que permiten a las máquinas realizar tareas que normalmente requieren de la inteligencia humana. Desde un punto de vista general, esto incluye, la representación del conocimiento, el razonamiento, la planificación, la resolución de problemas, la percepción, la actuación, y por supuesto el aprendizaje. Los grandes progresos que hemos visto en la última década se deben sobre todo a los avances en una de estas subtareas, el aprendizaje automático. Y en particular, el aprendizaje basado en datos.

Este tipo de modelos y técnicas son competentes en tareas específicas, algo que difiere del concepto de inteligencia con propósito general, de la cual aún estamos lejos. Sin embargo, el actual imaginario popular puede llegar a confundir estas herramientas con agentes con inteligencia general, parecida a la humana y aplicable en un amplio abanico de tareas; véase por ejemplo el caso de Blake Lemoine, ingeniero de Google que hace pocos meses indicaba que el sistema LaMDA era consciente. O los ecos que llegan últimamente sobre las capacidades de chatGPT o de los Large Language Models de diversas compañías y el ruido mediático que generan.

Aunque en materia de IA se están haciendo grandes progresos, hay una gran diferencia entre lo que podemos leer y ver en libros y películas de ciencia ficción y la actual realidad

Así pues, es necesario entender que se están haciendo grandes progresos en inteligencia artificial y que, aunque estos progresos son importantes y tendrán un gran impacto, no debemos caer en la antropomorfización de los mismos. Hay una gran diferencia entre lo que podemos leer y ver en libros y películas de ciencia ficción y la actual realidad.

DLL. ¿”Inteligencia Artificial” implica necesariamente capacidad de aprendizaje de la máquina o caben otras formas de computación asimilables?

OP: Como comentaba anteriormente, el aprendizaje automático es una de las tareas fundamentales cuando se trabaja con inteligencia artificial, pero no es la única. A la par con ella se encuentran muchas otras, como el razonamiento, la planificación, la percepción y actuación del potencial agente artificial, etc. Sin embargo, es cierto que la que está dando de hablar más es precisamente la del aprendizaje.

DLL. ¿Qué problemas principales plantea el aprendizaje de máquinas?

OP. Esta es una pregunta muy abierta. Existen multitud de problemas, entendidos como retos, alrededor del aprendizaje de las máquinas. Desde un punto de vista filosófico y social es importante reflexionar sobre qué papel ha de desarrollar este tipo de tecnología. Dice el filósofo Daniel Dennett “queremos herramientas competentes e inteligentes, pero no queremos colegas artificiales”. Cuando la tecnología llega al nivel de permitir automatizar tareas anteriormente solo al alcance de la inteligencia humana y que tienen un impacto social relevante, entonces todas las sombras y preocupaciones que conciernen al uso, manipulación, y transformación de la información, el impacto en la toma de decisiones –preocupaciones que subyacen ya en entornos sociales y propios de la naturaleza humana–, se trasladan al ámbito de la tecnología.

La ética de las decisiones, cómo y cuándo usar estas herramientas, cómo afectan a la privacidad, cómo afectan a la autonomía, cómo se genera confiabilidad, son problemas importantes que requieren de una reflexión compartida y multidisciplinar y que debe incluir a todos los actores.

Cuando la tecnología permite automatizar tareas anteriormente solo al alcance de la inteligencia humana y que tienen un impacto social relevante, todas las preocupaciones propias de la naturaleza humana se trasladan al ámbito de la tecnología

Desde un punto de vista técnico, obviamente, hay muchísimos retos: desde los más obvios de aumentar la precisión de los sistemas, de acelerar el aprendizaje y disminuir el tiempo de respuesta, a hacer que sean eficientes y sostenibles. Y uno de los más importantes es ayudar a solucionar, desde el punto de vista los problemas y retos filosóficos, sociales y económicos que plantea el uso de estos sistemas y su impacto.

DLL. ¿Qué implicaciones económicas plantea el entrenamiento de máquinas? ¿Es tan costoso y ambientalmente tan poco sostenible como sostienen algunos?

OP. El coste del entrenamiento de los algoritmos de aprendizaje automático depende mucho en primer lugar de la técnica que se va a usar. Todo modelo pretende capturar los patrones para realizar la predicción y para ello, estos modelos tienen parámetros que codifican las relaciones aprendidas. Por ello, cuantos más parámetros tenga el modelo mayor será el coste computacional requerido y, por consiguiente, el impacto económico y medioambiental.

Adicionalmente, el número de datos que se van a usar tiene una afectación similar. Aunque vivimos en un mundo donde se habla del big data muy a menudo, en realidad muy pocas empresas realmente cuentan con grandes volúmenes de datos y las capacidades necesarias para su procesado. Además, usualmente, el valor de los datos se encuentra en la particularización y el small data. Por lo que, en general, el modelo de IA que puede usar la gran mayoría de empresas o administraciones usualmente tendrá un coste e impacto negligible o muy bajo.

Sin embargo, en casos especiales como el de los Large Language Models (grandes modelos de lenguaje, o LLM), tan de moda por el revuelo mediático del chatGPT, que tienen del orden de 500 mil millones de parámetros y requieren de grandes corpus de aprendizaje, el entrenamiento de estos algoritmos es muy costoso en tiempo y recursos computacionales.

En particular, el GPT-3 tiene 175 mil millones de parámetros, el Megatron-Turing tiene 530 mil millones, PaLM tiene 540 mil millones de parámetros, y el recientemente aparecido GPT-4 aumenta hasta 170 billones de parámetros.

A nivel de impacto medioambiental, modelos alrededor de 200 mil millones de parámetros requieren de un equivalente a 752.000 kg de CO2 para su entreno. Para comparar, un vuelo de ida y vuelta de Barcelona a Nueva York genera 425 kg de CO2.

DLL. ¿Cabe hablar de Inteligencia artificial sin capacidad de explicar la relación de causalidad entre los datos procesados y el resultado obtenido?

OP. El aprendizaje automático predictivo se encuentra al nivel de correlaciones, por lo que el discurso de las causas queda fuera de su alcance. Y ha de ser así en muchos casos. Un caso paradigmático es el de los sistemas de soporte a la predicción de enfermedades. El diagnóstico habitual de una enfermedad es no causal. Un médico que realiza un diagnóstico o un forense que busca identificar qué ha sucedido necesita usar un discurso anti-causal. Es decir, se busca la inferencia antes que la mejor explicación. A partir de los efectos y síntomas se busca la causa o enfermedad más probable. Lo mismo sucede con los sistemas predictivos automáticos. Habitualmente se mezclan causas y efectos con el propósito de obtener la mayor tasa de acierto.

Esto no significa que no pueda imponerse una estructura causal, campo que actualmente está muy en auge en la comunidad de aprendizaje automático, y que obligaría a tener un comportamiento puramente causal al sistema.

Adicionalmente, y a nivel de reflexión más general, me gustaría comentar que a menudo nos olvidamos de que hasta ahora, los sistmeas de decisión humanos han estado operando sin estos sistemas de control y exigencia, pese a que tanto la psicología como la neurociencia nos verifican que son tan cajas negras como los sistemas de aprendizaje máquina.

DLL. Apunta usted en el libro que “Todos los sistemas de IA actuales, como el aprendizaje profundo, son competentes sin comprensión” ¿qué implicaciones tiene esta afirmación?

OP. Fundamentalmente se refiere a que realizan la tarea para la que han sido entrenados con alto nivel de corrección. En general, los sistemas predictivos se medirán en primera instancia por el nivel de predicción en la tarea que desarrollan. Por ejemplo, el reporte técnico asociado al GPT-4 indica que este modelo de lenguaje obtiene resultados a nivel humano en diversos exámenes académicos y profesionales, y son capaces de traducir un texto de un idioma a otro con un nivel más que aceptable. En estos puntos el sistema es competente, pero no requiere del concepto de comprensión entendida como la capacidad de acceder a la carga semántica a nivel consciente.

DLL. Si las redes neuronales escriben sus propios programas, y los métodos actuales todavía no son buenos para proporcionar explicaciones aceptables sobre los patrones aplicados por el sistema ¿cómo podemos confiar en las decisiones adoptadas por la máquina? ¿Debemos conformarnos, simplemente, con que generalmente son buenas?

OP. ¿Cómo puede uno confiar en una decisión tomada por un ser humano? Salvando ampliamente las diferencias de estos sistemas con un ser humano, la pregunta es pertinente en cuanto que muchos de los principios con los que responderíamos la pregunta son exigibles y aplican a una caja negra artificial. Por ejemplo, por la confiabilidad que genere, por su reputación, por su muestra de competencia, incluso por su capacidad de autodiagnóstico (no es descabellado que uno de estos sistemas pueda usar un LLM para dar soporte a las “razones” por las que realiza una determinada predicción). Dicho esto, en la respuesta a la siguiente pregunta también daré algún matiz adicional sobre cómo enfrentarnos a este problema.

DLL. Desde un punto de vista técnico ¿Hasta qué punto es razonable esperar una explicabilidad de las decisiones basadas en el Deep learning?

OP. Es importante preguntarse qué se entiende por explicación. Existen múltiples acepciones de la palabra. Podemos preguntarnos el cómo, o el por qué, o la finalidad, o las causas; podemos considerar que una explicación debe ser accionable y simple, es decir, que ha de proporcionar elementos que nos indiquen o sugieran posibles vías de actuación, o que permitan cambiar la predicción o la decisión, entre otras posibilidades. Por ejemplo, este último elemento de accionabilidad es importante en entornos altamente regulados, como son los entornos financieros. Y, además, es fundamental entender el contexto de la explicación, a quien va dirigido y que circunstancias rodean al receptor de la misma.

Por lo tanto, el termino explicación esta sobrecargado y requiere de una especificación de los conceptos necesarios para cubrir las necesidades que se le exigen y permita cumplir con el cometido que se requiera en cada caso. En una ocasión le preguntaron al gran físico Richard Feynman el por qué los imanes se atraen. Al final de la muy interesante entrevista concluye con la siguiente tautología: “los imanes se atraen, porque los imanes se atraen”. Recomiendo que busquen la entrevista por la red pues plantea elementos muy interesantes y relevantes para este tipo de cuestiones.

Dicho esto, y suponiendo que somos conscientes del tipo de respuesta que buscamos, hay mucho debate en la comunidad de aprendizaje automático sobre qué tipo de modelos y explicaciones deben considerarse. Las dos grandes corrientes antagónicas que encontramos son las de la explicación por diseño y la de las explicaciones post-hoc. La explicación por diseño plantea soluciones, en general, en forma de reglas como por ejemplo “si (A) entonces (B)”. Estos predicados permiten ofrecer explicaciones comprensibles por el ser humano. Pero ¿qué sucede si la predicción se encuentra tras un conjunto de cientos o miles de predicados de estos? ¿Son inteligibles? ¿Los podemos considerar explicaciones válidas? La otra corriente es la de las explicaciones post-hoc. En este caso buscamos una explicación que sea plausible a posteriori. La gran crítica a esta línea de trabajo es que, aunque sea una explicación plausible, no hay garantía que ese sea el “razonamiento” subyacente en el motor de predicción. En mi opinión, ambas vías son legítimas y deben ser consideradas.

DLL. Una de las mayores amenazas para el desarrollo de una IA confiable son los sesgos ¿qué medidas se pueden implementar, desde el punto de vista técnico, para prevenirlos?

OP. Uno de los elementos que considero más importantes de todo el revuelo alrededor de la inteligencia artificial es que, en el fondo, pone a la sociedad delante de un espejo. Hemos procrastinado y no hemos prestado la atención que merecen multitud de fenómenos sociales que de repente cobran vital importancia cuando la decisión que hasta ahora tomaban los humanos, la toma un sistema algorítmico.

La IA es un espejo de la sociedad. La IA se limita a replicar aquello “que ve” y debido a su potencial impacto global puede escalar los sesgos y las discriminaciones que tácitamente aceptábamos. Deberíamos reflexionar sobre qué podemos hacer para evitar ya de inicio todos estos sesgos subyacentes en nuestra sociedad. Y por supuesto, dados estos datos sesgados, más aquellos posibles defectos de diseño que también pueden existir en los sistemas de aprendizaje automático, podemos intervenir en los algoritmos para poderlos mitigar.

La comunidad científica ha creado múltiples métricas que permiten medir los sesgos desde distintos puntos de vista, por ejemplo, podemos considerar el concepto de discriminación bajo la visión aristoteliana de “casos similares”, por el que casos similares deberían ser tratados de forma similar. Pero esta no es la única forma de abordar el concepto de discriminación, por ejemplo, tenemos todo un conjunto de medidas que responden a las corrientes de filosofía política del igualitarismo y por el cual se pretenden ecualizar las oportunidades. Pero también existe la necesidad de medir la discriminación histórica y estructural. O la posibilidad de enraizar la identificación de los sesgos de forma causal.

La pregunta no es sólo cómo se pueden solucionar técnicamente los sesgos, si no, como nos ponemos de acuerdo sobre como identificamos un sesgo

La pregunta no es sólo cómo se puede solucionar técnicamente, si no, como nos ponemos de acuerdo sobre como identificamos un sesgo. Al final, los sistemas de IA parten del “mundo tal y como es” y lo que le pedimos al sistema es que refleje el “mundo tal y como debería ser”.

Esta consideración moralizante se ha de abordar de forma contextual y usar los mecanismos técnicos que reviertan estos sesgos, conscientes de que revertir un sesgo en cualquier entorno significa una pérdida de poder predictivo y por lo tanto pone en conflicto los principios de “no discriminación” y de “no maleficencia”.

Con todo esto, hay tres vías fundamentales de tratar de forma técnica la mitigación de los sesgos. Muy brevemente, podemos alterar la visión inicial del “mundo tal y como es” para que los datos que recogemos se parezcan a una muestra del “mundo tal y como desearíamos”; o podríamos identificar que métrica o métricas son las más adecuadas en nuestro contexto y usarlas como complemento a la métrica predictiva para tener el máximo poder de predicción manteniendo las restricciones deseadas; o, también, podríamos tratar las salidas del algoritmo para que refleje las actuaciones preferidas.

DLL. ¿Cómo valora, desde el punto de vista técnico, las previsiones establecidas por la propuesta de Reglamento europeo de IA sobre los sistemas de IA considerados de alto riesgo, razonables, factibles o excesivas? ¿Qué implicaciones pueden tener para el desarrollo de la industria?

OP. El reglamento me parece un intento razonable de mantener un equilibrio entre normatividad y producción. Trazando líneas rojas en aquellos valores que se prevén que pueden ser vulnerados. Y, a pesar de que hay muchas ambigüedades y potencial discusión en algunos de los puntos, es un buen inicio si entendemos que lo que requiere este tipo de escenarios es la flexibilidad y la capacidad de irnos adaptando con la velocidad de la tecnología. Si se plantea como un reglamento rígido en vez de un reglamento vivo, caeremos en la obsolescencia legislativa en breve.

DLL. ¿Son la certificación y la auditoría los métodos más adecuados para asegurar una IA confiable?

OP. Considero que son dos vías que es importante explorar, porque seguramente son el primer paso razonable en la dirección de tener un control y un marco para la gobernanza algorítmica. El riesgo que tenemos en este tipo de mecanismos es que los algoritmos se adaptan segundo a segundo y las visiones o certificaciones estáticas, relaivas a un determinado comportamiento en un instante de tiempo determinado, podrían no ser significativas del uso o válidas en el siguiente instante. Aun así, se requiere de un marco que permita dotar de confianza al proceso y al producto basado en datos.

Pablo García Mexía, Director de Derecho Digital en Herbert Smith Freehills y Letrado de las Cortes - “La transparencia es quizá la mayor necesidad que los humanos tenemos a la hora de manejar algoritmos artificialmente inteligentes”.

Diario LA LEY. ¿Qué implica, desde el punto de vista jurídico, el concepto de Inteligencia Artificial?

Pablo García Mexía. Estamos hablando de un concepto que no es jurídico, sino estrictamente tecnológico. Otra cosa es que tenga implicaciones éticas, jurídicas y de cualquier otra índole. Lo importante es destacar que lo que hoy por hoy ha de preocupar al Derecho es la llamada IA "débil", es decir, aquella que se plasma en algoritmos y en productos de consumo, como puede ser ChatGPT, disponibles ya en Internet para cualquiera. Es decir, que no hemos de preocuparnos, si es que algún día alguien tendrá que hacerlo, del impacto legal de ingenios superinteligentes, más que nosotros mismos.

DLL. La Constitución Española de 1978 plantea en su artículo 18 “limitar el uso de la informática” para garantizar “el pleno ejercicio” de los derechos de los ciudadanos ¿Hasta qué punto supuso esa previsión una cautela aplicable hoy?

PGM. Es una cláusula, nunca mejor dicho, doblemente inteligente. Primero por ser muy abierta, es decir, por no decantarse por ningún tipo de aplicación de índole digital que ya por entonces estuviera en el mercado o pudiera preverse. Eso ha permitido que 45 años después pueda seguir siendo perfectamente aplicable, cuando lo hacemos a tecnologías digitales que en 1978 habrían parecido pura ciencia ficción, léase la Internet de las cosas, Blockchain o por supuesto la misma IA. Segundo, porque como cualquier otra disposición constitucional, ve posibilitada su adaptación a los tiempos gracias a la interpretación y aplicación por parte del Tribunal Constitucional. Un gran pensador sobre estas materias habló de "ambigüedades gloriosas" en este sentido, gracias a que hacen posible una adaptación "darwiniana" a tiempos ya lejanos a su redacción.

DLL. ¿Qué retos jurídicos plantea la capacidad de autoaprendizaje de las máquinas?

Si como consecuencia de su capacidad de autoaprendizaje una IA puede llegar a adquirir capacidades que ni sus mismos diseñadores habían imaginado y, a raíz de ello, generar efectos dañinos no previstos, la pregunta es ¿Quién responderá entonces de tales daños?

PGM. Justamente en este punto radica quizá el principal de todos ellos. Las máquinas de que hablamos, así como los algoritmos que las animan o los que en general dan vida a un software artificialmente inteligente, incorporan esta capacidad como su novedad esencial. Más aún, este software tiene la capacidad de aprender a aprender, perfecciona continuamente su misma potencialidad clave. La consecuencia es clara: este software puede llegar a adquirir capacidades que ni sus mismos diseñadores pudieran haber imaginado. Y, a raíz de ello, generar efectos también poco o nada imaginables, en ocasiones dañinos para personas o bienes. ¿Quién responderá entonces de tales daños? ¿Podría el diseñador o el fabricante ampararse en esa imprevisibilidad para eludir sus responsabilidades? ¿Es razonable que así fuera? ¿O, el hecho de que por ejemplo ese software opere en entornos de alto riesgo (por ejemplo la salud), debe obligar a una responsabilidad objetiva (es decir, ciega) de diseñador o fabricante? ¿O debiera suceder también así incluso en entornos de riesgo medio o bajo, graduando en ese caso la responsabilidad?

DLL. A la espera del Reglamento Europeo de IA ¿se puede decir que vivimos en un territorio sin ley por lo que se refiere al desarrollo y utilización de la IA, o ya existe un marco jurídico aplicable?

PGM. De ninguna manera vivimos en un territorio sin ley en este ámbito. Ni siquiera sucedía así hace ya treinta años, cuando Internet comenzaba a abrirse camino entre el gran público. Siempre va a haber disposiciones legales aplicables, aun cuando fuera de modo analógico, y quizá con la excepción de las leyes penales, a problemas surgidos en ámbitos digitales y ahora de IA. Los juristas incurrimos quizá con excesivas frecuencia y facilidad en este hábito, el de pretender generar normas nuevas ante problemas legales surgidos también como novedad.

Lo dicho pues, tampoco la IA opera en modo alguno en un territorio legal "desierto". Le son aplicables normas generales, como por ejemplo las de propiedad intelectual para el supuesto de software que pudiera incurrir en plagios. También normas directamente inspiradas en el entorno digital, como sin duda sería el Reglamento general de protección de datos (LA LEY 6637/2016), nacido en ese ámbito y pensado para operar de lleno en él. Y luego, es cierto, hay algunas materias, como la citada de la responsabilidad por daños generados mediante IA o el impacto en privacidad de técnicas IA de reconocimiento facial, que son especialmente propensas a su regulación mediante normas nuevas.

DLL. Si la IA es una tecnología con “potencialidad dominante” pero carente de una filosofía, como apunta usted en el libro ¿Qué importancia tienen la ética y las ciencias sociales en estos momentos prerregulatorios?

PGM. Es llamativo el impacto que la IA está teniendo en la Filosofía. Ésta llevaba casi cien años "maltratada" por los excesos del positivismo, del materialismo y del determinismo, o lo que es lo mismo, por los excesos de quienes confunden ciencia con precisión y con exactitud. Popper nos demostró con toda contundencia en pleno siglo XX que el saber ha de ser claro y sencillo, pero no necesariamente exacto al modo de una fórmula matemática. La IA ha topado pues con una Filosofía admirablemente equipada para hacer frente a los problemas que aquélla plantea en este plano, siendo al tiempo la Filosofía la rama del saber más adecuada para afrontarlos, desde la noción de inteligencia, hasta las de aprendizaje, explicación o comprensión. A su vez la Ética, como sub-rama de la propia Filosofía, resulta decisiva para canalizar los avances de la IA hacia valores aceptables en nuestras sociedades y ello tanto porque en efecto estamos en una fase decididamente prerregulatoria cuanto porque la propia industria es mucho más refractaria ante la regulación de lo que lo es ante pautas éticas autoimpuestas o propuestas de modo voluntario por entes suficientemente autorizados.

DLL. La industria parece preferir la autorregulación, mientras que la sociedad parece optar por la regulación ¿qué ventajas e inconvenientes plantea cada una de estas opciones?

PGM. Es natural que la industria prefiera la autorregulación o que prefiera regirse por principios éticos, ajenos a la regulación legal. Es muy difícil que la regulación legal no termine por implicar barreras para la innovación. Los requisitos que habría de satisfacer esa regulación legal para no generarlas, aun imaginables sobre el papel, en la práctica resultan inviables.

La regulación legal de la IA siempre aportará más certidumbre que la autorregulación, pero quizás al inevitable precio de ralentizar o dificultar la innovación

La sociedad, por otra parte, detecta problemas y anhela soluciones, que cree poder resolver de modo más eficaz gracias a la inexorabilidad de la norma legal. La innovación no solo garantiza prosperidad económica y social, siendo esto ya de por sí un bien de incalculable valor, especialmente para las clases más desfavorecidas. La innovación también asegura la democracia y la libertad, pues solo un ciudadano que tenga sus necesidades básicas satisfechas podrá siquiera soñar con ser más libre y más igual. Y esto solo lo ha garantizado la innovación tecnológica, como entre otros Hanna Arendt nos han dicho. La regulación legal, por su parte, siempre aportará más certidumbre, pero quizás al inevitable precio de ralentizar o dificultar la innovación.

DLL. ¿Cree que se están extremando las exigencias de explicabilidad de las decisiones algorítmicas, en relación con las actuales previsiones sobre justificación de las decisiones adoptadas por entidades públicas o privadas?

PGM. Explicabilidad es transparencia. Y la transparencia es quizá la mayor necesidad que los humanos tenemos a la hora de manejar algoritmos artificialmente inteligentes. ChatGPT lo evidencia claramente. Parece simplemente justo que, por ejemplo, el destinatario de algún trabajo nuestro elaborado con este software sepa que, en mayor o menor medida, no es obra del todo nuestra, sino en parte del propio ChatGPT. Así un cliente, que podría aspirar a pagar menos en supuestos de ese tipo, aunque solo fuese porque es a nosotros como específicos proveedores a quienes ha acudido y porque el tiempo que habríamos invertido sería sustancialmente inferior al que ese trabajo nos hubiera llevado de no contar con esta herramienta.

La explicabilidad tiene en cambio otra vertiente, mucho más delicada, cual es la que pretende exigir a diseñadores y fabricantes de este software que "abran" sus "cajas negras" a fin de que sus usuarios podamos conocer detalles de su funcionamiento. Y esto es mucho más delicado, en el sentido de suscitar grandes resistencias en la industria, reacia a un expediente que pone lógicamente en riesgo un conocimiento de muy costosa generación y cuya apertura podría poner en riesgo mayor o menor la misma continuidad de muchos modelos de negocio, especialmente los de menor tamaño. Cualquier regulación que pretenda avanzar en aras a la explicabilidad ha de tener estos postulados muy presentes. A menos que, en lo que a la UE respecta, nos resignemos a quedar perpetuamente a la zaga de los dos líderes mundiales, China y EE.UU., ya muy por delante de nosotros en IA.

DLL. ¿Hasta qué punto derechos como el de propiedad intelectual o industrial pueden constituir un límite al principio de explicabilidad algorítmica?

PGM. Conecto de lleno con lo recién afirmado. Abrir algoritmos supone poner en riesgo ambos bienes jurídicos, sea por ejemplo una patente si el software inteligente se combina con alguna suerte de proceso técnico, sea el mero software en los demás casos. El incentivo que por lo tanto todo proceso de innovación debe tener quedaría comprometido paralelamente y en esa misma medida. Esto no significa que la explicabilidad anule siempre y de todo punto la propiedad intelectual e industrial. Aunque sí que estos dos bienes deben en todo caso considerarse límites a un principio de explicabilidad algorítmica inteligente y equilibradamente configurado.

DLL. ¿Qué medidas considera necesario aplicar para garantizar la defensa de los derechos de las personas ante la aplicación de sistemas inteligentes tanto en el ámbito público como en el privado?

PGM. Más que medidas, creo más oportuno, máxime en el estadio de desarrollo e implantación social de la IA en que nos encontramos, aplicar principios y pautas suficientemente generales y abiertos como para adaptarse a una evolución aún en sus inicios.

A la vez, meras pautas o principios resultan mucho más respetuosos del avance tecnológico en este ámbito de lo que puedan suponer normas legales, por esencia mucho más cerradas. Pienso que este viene siendo también el enfoque de tantos organismos internacionales que se han ocupado ya de sentar esas pautas, por supuesto de mero alcance ético, como son la OCDE, el Consejo de Europa o la propia Unión Europea. También nuestra Carta de derechos digitales (LA LEY 16317/2021) sigue este derrotero. Cierto que la UE ha dado un paso más, al prever normas de índole legal en el futuro Reglamento de IA. Será claramente pionero en el mundo, si bien ello no quiere decir que por esa sola razón deba elogiarse. Si es éste el caso, desde luego lo es por mantener una aproximación regulatoria muy cuidadosa, al centrarse especialmente en las actividades de alto riesgo. Reitero que está más que justificado que así sea: la UE es el campeón regulatorio mundial, pero solo un puñado de sus empresas digitales figuran en la cúspide de las mayores del mundo. Permítaseme la expresión, el llamado "efecto Bruselas" no da de comer.

DLL. ¿Qué implicaciones tendría el principio de responsabilidad proactiva en relación con los sistemas inteligentes?

PGM. Es un principio clave, que figura en todos los catálogos importantes de pautas éticas en esta materia. La expresión anglosajona "accountability" lo da a entender de un modo mucho más claro: se trata de que diseñadores y fabricantes den cuenta activa de las características del software inteligente que hayan generado, de sus principales funcionalidades y efectos, así como de sus riesgos.

Esta rama por así decir positiva de la "accountability" se complementa con otra negativa, en cuanto que esos agentes terminarán en todo caso siendo responsables de los daños que deriven del uso de estos sistemas. No existe ni parece que vaya a existir siquiera a medio plazo una "responsabilidad digital", directamente predicable de los ingenios artificialmente inteligentes. Esta idea, que tuvo cierto éxito a finales de la pasada década, ha sido arrumbada por la generalidad de la doctrina y desde luego también por el legislador europeo. Habría venido a añadirse, en su caso, a la responsabilidad de diseñadores y fabricantes, al hacer al ingenio "personalmente" responsable de los daños que llegase a causar, del mismo modo que por ejemplo son las personas jurídicas responsables, incluso penalmente, de los daños a que su actuación dé lugar, con independencia de aquella en que incurran las personas que les dan vida.

DLL. ¿Cuáles son los puntos más problemáticos del engarce entre la normativa europea de protección de datos, de consumo y de competencia, y la futura regulación de la IA?

PGM. El entorno digital y la transformación económica y social que conlleva hacen converger cada vez más este tridente privacidad, consumo, competencia. La privacidad garantiza un consumo digno, que crecientemente se lleva a cabo en entornos digitales. Las reglas de competencia han comenzado a tomar en consideración el poder del dato a la hora de ponderar posibles abusos de posición dominante.

Más allá de estas ideas, es clave destacar que protección de datos e IA son dos polos que no casan fácilmente, aunque solo fuese por el hecho de que el aprendizaje de máquinas precisa consumir ingentes cantidades de información, en muchas ocasiones personal, en su mismo funcionamiento; esto último supone de por sí un alto riesgo en materia de privacidad. Otro tanto sucede con potencialidades de la IA como el reconocimiento facial. Los llamados "patrones oscuros", por otra parte, constituyen el probablemente principal problema de engarce en materia de consumo: es muy fácil que algoritmos inteligentes hagan posible este tipo de prácticas, caracterizadas por manipulaciones engañosas de la conducta en línea. Está en cambio por ver cuál pueda ser el impacto directo de la IA en materia de competencia: de momento, la regulación en ciernes se centra en las dos áreas citadas.

DLL. ¿Cabe plantear unos límites al desarrollo de los sistemas inteligentes más avanzados (y, por tanto, potencialmente más amenazadores para los derechos de las

personas), similares a los regulados por los principios de Asilomar sobre la manipulación genética?

PGM. Lo veo más que probable. Y también por supuesto más que factible y más que deseable. Aunque es cierto que, como antes mencionábamos, este tipo de sistemas, no digamos la llamada "superinteligencia", podrían aún estar a mucha distancia. Es clave centrarse en lo que ya tenemos "al alcance de nuestras mismas teclas" y sobre esto no nos faltan precisamente opciones. Cuando llegase la IA "fuerte", eso sí, principios como los que cita y en general los que hemos mencionado y que se encuentran en los textos también citados, deberán estar también allí presentes. Ante todo, el de centralidad de la persona humana, es decir, el hecho de que solo la persona humana da sentido a estos sistemas, razón por la que los mismos solo deberán orientarse a los fines que ésta determine.

Scroll