Carlos B Fernández. El progresivo avance de las tecnologías de inteligencia artificial, está intensificando el debate en torno a los mecanismos de atribución de responsabilidad por los daños que pueda provocar su uso. Se trata de uno de los mayores retos que la generalización de estas tecnologías plantea al Derecho, ante la perspectiva de que en un futuro, puedan alcanzar un nivel de autotomía que les permita tomar decisiones de manera independiente.
Sin embargo, la atribución de una responsabilidad jurídica “electrónica” para resolver estos supuestos, tal como se ha propuesto por algunos autores, no es la solución adecuada, ya que erosiona el papel central de la persona humana ante estos casos.
Esta es una de las más relevantes conclusiones expuestas por Pablo García Mexía, of counsel de Ashurst, letrado de las Cortes y uno de los más prestigiosos expertos nacionales en derecho de las tecnologías, en una reciente conferencia impartida en la Academia Matritense del Notariado, en la que abordó el papel del Derecho ante la inteligencia artificial (IA).
Los retos que la IA plantea al Derecho
Para este experto, en lo que a estas nuevas tecnologías se refiere, el Derecho se enfrenta a varios desafíos, como el de las bases de su gobernanza, las asimetrías de poder provocadas por la cantidad de información que se puede llegar a manejar, el confinamiento digital de los usuarios en entornos cerrados y la discriminación por el precio ofrecido.
En cuanto a su gobernanza, los sistemas inteligentes plantean el problema de que la algocracia, o toma de decisiones relevantes sobre los ciudadanos por medio de algoritmos, podría llegar a constituirse en una amenaza para el poder estatal.
A este respecto, García Mexía considera que hace falta una mínima centralización que impida la toma de decisiones políticas por algoritmos. Algo que puede parecer lejano, pero que ya está presente en aspectos como el de la identidad digital de la persona, definida a través de algoritmos.
Igualmente, estos sistemas plantean problemas en relación con la equidad y la igualdad de trato de las personas a las que se aplique, provenientes, principalmente, de los sesgos en los datos o en los algoritmos utilizados (que pueden provocar el acceso o la denegación del acceso a servicios sociales), y del contexto en el que son utilizados, que puede provocar la modificación de las ofertas propuestas a un mismo usuario.
Un tercer aspecto relevante es el de la privacidad, pues, como ha señalado el Information Commisioner Office británico (ICO), órgano equivalente a nuestra Agencia de Protección de Datos, la inteligencia artificial, por sus características de impredicibilidad desde el diseño, falta de transparencia y falta de minimización y de calidad del dato ha cambiado el paso a la privacidad y a la protección de datos.
Pero el reto más relevante, tal como se anticipó, es el de la responsabilidad derivada de su uso.
¿Cómo determinar la responsabilidad de los sistemas inteligentes?
Por lo que se refiere al ámbito penal, señaló García Mexía, la cuestión está clara, pues en la máquina no hay una mens criminis, que siempre será la de una persona física. Los supuestos de daños causados por imprudencia son los que pueden plantear más problemas interpretativos, advirtió.
En cuanto a la responsabilidad civil, cabe considerar la responsabilidad objetiva del fabricante, pero Directivas europeas como la Directiva 85/374/CEE, de 25 de julio de 1985 (LA LEY 1943/1985), sobre responsabilidad por los daños causados por productos defectuosos, no se refieren a software o sistemas digitales defectuosos, sino a ”bienes muebles”. Además, precisó,e la teoría del riesgo es inútil cuando se trata de usos inicuos de estos productos.
Por ello es necesario que la norma jurídicaentre a regular determinados aspectos de la inteligencia artificial, bien por medio de la autorregulación o bien por medio de normas jurídicas tradicionales.
Y para ello será necesario considerar dos principios jurídicos fundamentales, el de centralidad de la persona y el de responsabilidad proactiva, que se deben acompañar de un tercero, el principio de confianz, si bien, explic seguidamenteó, el primero es un supraprincipio que se sitúa por encima de todos los demás y se traduce en la posibilidad de control por el ser humano de las máquinas que diseña y fabrica.
El principio de responsabilidad proactiva se traduce básicamente en la obligación de poder explicar la razón de las decisiones adoptadas por medio de dichos sistemas y en laobligación de responder por los efectos de su uso.
Según explico, este criterio supera a los principios clásicos dfairnesss o ausencia de sesgos indeseados, transparencia y explicabilidad. Este último, en concreto, plantea los problemas de la gran complejidad de algunos sistemas, que les hace difícilmente controlables, y de que la interpretabilidad se suele contraponer a precisión.
En este sentido,añadió García Mexía, el Reglamento General de Protección de Datos (LA LEY 6637/2016) (RGPD) constituye el primer caso de norma que regula el impacto de la inteligencia artificial sobre la privacidad y el paradigma regulatorio de la responsabilidad. Y lo hace desde los mismos dos principios anticipadosanteriormentea, el de centralidad de la persona y el de responsabilidad proactiva oaccountabilityy. El primero se traduce en el derecho a no ser objeto de decisiones automatizadas con efectos jurídicos o similares y el derecho a ser informado sobre la lógica seguida por los sistemas inteligentes que le afecten. En cuanto a la accountabilityy, su reflejo más claro se encuentra en los principios de privacidad desde el diseño y por defecto. Algo que en el caso de la inteligencia artificial debería traducirse en un principio de gobernanza o ética desde el diseño, conforme al cual la protección de la privacidad de los destinatariosdebería insertarse en el código de las aplicaciones desde el principio.
Todo ello sin olvidar que el desarrollo de estos sistemas debe respetar igualmente a la legislación sobre otras materias como consumo, competencia o responsabilidad civil.
Por tanto, concluyó Pablo García Mexía, hace falta una acción coordinada de los reguladores de la Unión Europea para establecer el marco jurídico necesario.
La inadecuación de la atribución de una personalidad jurídica electrónica
A este respecto, se planteó hace pocos años la posibilidad de atribuir una personalidad jurídica electrónica a los sistemas dotados de una inteligencia artificial lo suficientemente avanzada como para permitirles adoptar decisiones autónomamente.
Una decisión que no se aleja especialmente de la seguida por otras construcciones jurídicas, como la atribución de personalidad a las personas jurídicas.
Sin, embargo, advirtió García Mexía, este criterio no le parece adecuado, porque, según sus palabras, “extender a sistemas tecnológicos el atributo de la personalidad, que es exclusivo de la persona humana, erosiona o difumina el criterio de centralidad del ser humano”. steo,concretóó, es la clave del sistema y no puede compartir su carácter con unos objetos.
En aquellla ocasión, García Mexía partió de la concepción civilista, según la cual solo el capaz es persona. Pero preguntándose a continuación ¿puede haber entes que no sean persona? ¿Qué puedan contraer derechos y obligaciones, o comparecer en juicio o cometer un delito? ¿Cabe pensar en un Ente Capaz No Personal (ECNP), capaz de pensar, aprender, percibir, decidir y hasta sentir, al que pueda reconocerse una personalidad electrónica
Según su opinión de entonces, esta regulación tendría sentido con dos finalidades principales: limitar los riesgos derivados del funcionamiento de estos sistemas y garantizar las responsabilidades derivadas de los daños que pudiesen causar con su funcionamiento. ¿Quiénes tendrían esa personalidad? Particularmente los entes técnicamente más complejos, aunque no está claro si este concepto implica necesariamente características antropomórficas. ¿Qué derechos se les podría reconocer? Desde luego no los constitucionales, que son propios de las personas, pero sí algunos derechos patrimoniales, con la finalidad de garantizar su posible responsabilidad por daños causados. Por esta razón, sí podrían disponer de algún tipo de tutela jurisdiccional. ¿y qué obligaciones podrían exigírseles como consecuencia de los derechos que se les reconocieran? Básicamente dos: previsibilidad de su actuación y responsabilidad civil por las consecuencias dañosas derivadas de sus actos (si bien se plantea también una responsabilidad fiscal como consecuencia del incumplimiento de obligaciones de ese tipo).
Pero este planteamiento no fue seguido por l Propuesta de recomendaciones del Parlamento Europeo a la Comisión Europea sobre normas de Derecho civil sobre robótica, aprobada el 16 de febrero de 201..
Esta propuesta, considera que "es necesario disponer de una serie de normas en materia de responsabilidad, transparencia y rendición de cuentas que reflejen los valores humanistas intrínsecamente europeos y universales". Sin embargo, como advierte Alejandro Sánchez del Campo, contrariamente a lo que muchos piensan, esta propuesta, "en su apartado 59, requiere a la Comisión para que explore y analice las implicaciones de varias soluciones, entre ellas «crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente»".
De hecho, poco tiempo después, más de dos centenares de expertos europeos procedentes de una diversidad de ámbitos que van desde el tecnológico y legal hasta el sanitario y el ético, dirigieron a la Comisión una carta abierta oponiéndose al reconocimiento de dicha personalidad.
En opinión de los firmantes, la atribución de esa consideración legal de “persona electrónica” a los robots “autónomos”, “impredecibles” y capaces de “auto aprender” solo se justifica por la errónea afirmación de que en esos casos sería imposible probar una imputación de responsabilidad. Desde el punto de vista técnico consideran que esa afirmación es ambigua, sesgada y sobrevalora las capacidades actuales de los robots, incluso de los más avanzados y que la propuesta del Parlamento está basada en un entendimiento superficial tanto de la capacidad del autoaprendizaje de las máquinas como de la impredecibilidad de sus consecuencias y en una percepción de los robots “distorsionada por la Ciencia Ficción”.
Además, desde un punto de vista ético y legal, añaden, la atribución de esa personalidad legal resulta inapropiado por tres tipos de razones: porque no cabe considerar que los robots ostenten derechos similares a los humanos, como el de la dignidad, integridad y el derecho a una retribución justa, pues ello se opone a todos los tratados internacionales sobre los derechos humanos; porque el estatus legal de los robots no puede derivar del modelo de personalidad jurídica, ya que este se basa en la existencia de una persona física que la representa y dirige, lo que no es caso de los robots, y porque no consideran aplicable el modelo de Trust (negocio fiduciario) anglosajón, ya que este es un régimen extremadamente complejo que requiere competencias muy especializadas y sigue requiriendo como último resorte la existencia de un ser humano responsable.
Responsabilidad e imputabilidad
Recientemente ha avanzado más en esta idea la profesora Susana Navas Navarro, quien, en su trabajo "Sistemas expertos basados en inteligencia artificial y responsabilidad civil", indica que "si tiene alguna virtualidad la atribución a un robot de la consideración de sujeto de derecho, sin necesidad de que ello implique atribuirle personalidad, es la de poder ser «sujeto» al que se «imputa» la acción que ocasiona un daño, sin que ello signifique que «responda» del mismo".
En opinión de esta experta, "se trataría de un (nuevo) supuesto de responsabilidad por hecho ajeno" basado en el hecho de que "la «imputabilidad» cuando el comportamiento es humano implica voluntad libre y espontánea y capacidad de querer y entender el acto que se realiza discerniendo entre lo que está bien y está mal".
Un comportamiento, añade, que solo "puede apreciarse en aquellos sistemas expertos con capacidad de aprendizaje que toman decisiones independientemente del humano que pueden llegar a representarse las eventuales consecuencias dañosas de su conducta" . Es decir, "solo aquellos robots «inteligentes» deberían recibir la atribución de «sujeto de derecho» al que se puede imputar un comportamiento; no, en cambio, aquellos que responden a unas instrucciones previamente dadas sin capacidad de decisión ni autonomía. Respecto de este tipo de robots, la responsabilidad civil es por hecho propio; no por hecho ajeno".