Carlos B Fernández. El pasado 18 de diciembre, el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (High-Level Expert Group On Artificial Intelligence, AI HLEG), designado por la Comisión Europea en junio, publicó el primer borrador de Directrices Éticas para el desarrollo y uso de la inteligencia artificial (IA) (
Draft Ethics Guidelines for Trustworthy AI
).
En este documento, el grupo independiente de 52 expertos procedentes del mundo académico, empresarial y de la sociedad civil que lo ha elaborado, expone los criterios para que desarrolladores y usuarios pueden asegurarse de que la IA respeta los derechos fundamentales, la normativa aplicable y los principios básicos de la Unión Europea, y cómo la tecnología puede ser técnicamente robusta y fiable en este contexto.
Este borrador estará abierto a consulta hasta el 18 de enero. A la vez, será objeto de debate en la Alianza Europea de IA, la plataforma multilateral de la UE sobre IA.
Según las previsiones, el grupo de expertos presentará sus directrices definitivas a la Comisión el próximo mes de marzo de 2019. A continuación, la Comisión las analizará y propondrá la forma de llevarlas adelante. El objetivo final es trasladar el enfoque ético de Europa sobre la IA a la escena mundial, algo para lo que la Comisión está abriendo la cooperación a todos los países no pertenecientes a la Unión que estén dispuestos a compartir los mismos valores.
La necesidad de una IA confiable
Según se expone en el documento, la disponibilidad de grandes cantidades de datos digitales ha permitido, a lo largo de la última década, alcanzar importantes avances y potentes arquitecturas informáticas y avances en técnicas de IA tales como el aprendizaje automático (Machine Learning).
Como consecuencia, la Inteligencia Artificial es considerada una de las fuerzas más transformadoras de nuestro tiempo, y será la clave para abordar muchos de los grandes desafíos a los que se enfrenta el mundo, como la salud y el bienestar mundial, el cambio climático, los sistemas jurídicos y democráticos fiables y otros expresados en los Objetivos de Desarrollo Sostenible de las Naciones Unidas.
Por el momento, los principales desarrollos que permite la IA en ámbitos como los vehículos autónomos, la asistencia sanitaria, los robots domésticos, la educación o la ciberseguridad, están mejorando la calidad de nuestras vidas cada día. Por tanto, representa una gran oportunidad para aumentar la prosperidad y el crecimiento, que Europa debe esforzarse por conseguir.
Pero junto a su capacidad para generar enormes beneficios para los individuos y la sociedad, la IA plantea también ciertos riesgos que deben gestionarse adecuadamente. Con todo, en general, se indica en el resumen ejecutivo del documento, los beneficios de la IA superan a sus riesgos (on the whole, AI’s benefits outweigh its risks), pero, se añade, los seres humanos sólo podrán cosechar plenamente y con confianza los beneficios de la IA si pueden confiar en la tecnología. Para ello es necesario un enfoque de la IA centrado en el ser humano, teniendo en cuenta que el desarrollo y el uso de la IA no debe ser visto como un medio en sí mismo, sino como un medio con el objetivo de aumentar el bienestar humano. Por tanto, añade el documento, la construcción de una IA confiable, debe ser nuestro norte (Trustworthy AI will be our north star).
Componentes de una IA confiable
Según el grupo de expertos, una IA confiable se basa en dos componentes: 1) debe respetar los derechos fundamentales, la normativa aplicable y los principios y valores fundamentales, garantizando un "propósito ético" (an “ethical purpose”) y, 2) debe ser técnicamente robusta y fiable, ya que, incluso con buenas intenciones, la falta de dominio tecnológico puede causar daños involuntarios.
Sobre estas premisas, la propuesta de Directrices pretende establecer un marco para una inteligencia artificial digna de confianza. Para ello, el documento, dividido en tres capítulos, ofrece, por una parte, las pautas para asegurar la finalidad ética de la IA.
A estos efectos, en el primer capítulo se destaca que es necesario asegurarse de que la IA esté centrada en el ser humano. Para ello la IA debe desarrollarse, desplegarse y utilizarse con un propósito ético, basada en y reflejo de, los derechos fundamentales, los valores de la sociedad y los principios éticos de hacer el bien (Beneficence), no hacer daño (Non-maleficence), Autonomía de los seres humanos, Justicia y Explicabilidad. Esto es crucial para trabajar hacia una IA digna de confianza.
Se destaca igualmente la importancia de tomar a los derechos fundamentales, los principios éticos y los valores como referencia para evaluar de forma prospectiva los posibles efectos de la IA sobre los seres humanos y el bien común.
En este sentido, se debe prestar especial atención a las situaciones que impliquen a los grupos más vulnerables, como los niños, las personas con discapacidad o las minorías, o a situaciones con asimetrías de poder o de información, como las que se producen entre empleadores y empleados, o entre empresas y consumidores.
Por último en cuanto a este bloque se refiere, se recuerda la importancia de no perder de vista que a la vez que la IA aporta beneficios sustanciales a las personas y a la sociedad en su conjunto, también puede tener un impacto negativo en las mismas, por lo que debe prestarse atención a las áreas de preocupación crítica.
El capítulo II de la propuesta de Directrices ofrece una serie de referencias para obtener una IA confiable, abordando tanto la necesidad de un objetivo ético y de una solidez técnica.
Entre estas orientaciones se destaca la necesidad de incorporar los requisitos de una IA fiable desde las fases más tempranas de diseño, lo que incluye la responsabilidad proactiva (Accountability), la gobernanza de los datos (Data Governance), el diseño para todos (Desing for all), la gobernanza de la autonomía de la IA basada en la supervisión humana (Governance of AI Autonomy), la no discriminación; el respeto a la autonomía humana, el respeto de la privacidad, la robustez, la seguridad y la transparencia.
Se propone también considerar métodos técnicos y no técnicos para asegurar la implementación de esos requisitos en los sistemas de IA. Además de tener en cuenta estos requisitos a la hora de diseñar el equipo que se va a trabajar en el sistema, el sistema en sí, el entorno de pruebas y las posibles aplicaciones del sistema.
Se considera necesario igualmente proporcionar, de forma clara y proactiva, información a los grupos de interés (como clientes, empleados, etc.) sobre las capacidades y limitaciones de los sistemas de IA, permitiéndoles establecer expectativas realistas sobre sus capacidades. En este sentido, se considera fundamental garantizar la trazabilidad del sistema de IA.
A este respecto el documento destaca igualmente la importancia de hacer que una IA confiable forme parte de la cultura de las organizaciones, proporcionando para ello información a las partes interesadas sobre cómo se implementa la IA confiable en el diseño y uso de los sistemas de IA. De mismo modo, una IA confiable puede formar parte de los códigos deontológicos o de los códigos de conducta de las organizaciones.
Por otra parte, se considera necesario asegurar la participación de las partes interesadas en el diseño y desarrollo de los sistemas de IA. Esto incluye garantizar la diversidad a la hora de crear los equipos que desarrollen, implementen y prueben el producto.
Esforzarse por facilitar la auditoría de los sistemas de IA, especialmente en contextos o situaciones críticas. A la en la medida de lo posible, diseñe su sistema para permitir el seguimiento de las decisiones individuales de sus diversas entradas; datos, modelos pre-entrenados, etc. Además, definir métodos de explicación del sistema de inteligencia artificial.
Se resalta la importancia de asegurar la disponibilidad de un proceso específico para la implantación de sistemas de responsabilidad proactiva (accountability governance).
Es necesario prever la capacitación y la formación del personal para asegurar que los gerentes, desarrolladores, usuarios y empleadores conozcan y estén capacitados para trabajar con una IA confiable.
Finalmente, en este sentido, se llama la atención sobre la necesidad de tener en cuenta que puede haber tensiones de base entre los diferentes objetivos perseguidos (por ejemplo, la transparencia puede abrir la puerta a un uso indebido de las aplicaciones o la identificación y corrección de prejuicios puede entrar en colisión con la privacidad de las personas).
Por último, el capítulo III de la propuesta incorpora una guía para evaluar una IA confiable, que incluye una lista de evaluación de una IA fidedigna en las fases de desarrollo, despliegue y utilización de la IA, adaptada a cada caso específico de uso. A este respecto se llama la atención sobre el hecho de que una lista de evaluación nunca será exhaustiva, y que garantizar una IA de confianza no consiste en marcar casillas, sino que se trata de un proceso continuo de identificación de requisitos, evaluación de resultados y asegurar los mejores resultados a lo largo de todo el ciclo de vida del sistema de IA.