Cargando. Por favor, espere

Portada

Carlos B Fernández. El creciente desarrollo de la inteligencia artificial, sin una legislación que regule su uso, está haciendo proliferar la elaboración por diferentes organizaciones y organismos de enunciados de principios éticos que, a falta de norma, sirvan para regir el desarrollo de estas tecnologías.

Desde la propuesta del Parlamento Europeo de finales de 2017, a las más recientes iniciativas de la Comisión Europea, la OCDE o del Consejo de Europa, pasando por las conocidas declaraciones de Barcelona, Toronto o Copenhague, son ya múltiples las iniciativas que han surgido en este sentido.

La última que hemos conocido procede del ámbito de la defensa. El desarrollo de armas “inteligentes”, es decir, de sistemas capaces de identificar una persona, vehículo o instalación; clasificarlo como hostil y dirigir contra él, de modo más o menos autónomo, un ataque que lo incapacite o destruya, basados en avanzados sensores y técnicas de IA, constituye una evidencia cada vez más presente en las informaciones.

Y en este marco, el Defense Innovation Board (DIB), un grupo de trabajo del Departamento de Defensa de los Estados Unidos, ha elaborado un documento titulado “Principios de IA: Recomendaciones sobre el uso ético de la inteligencia artificial por parte del Departamento de Defensa” (AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense), que recoge una serie de recomendaciones que ahora deberán ser aprobadas por el Pentagono para su implementación práctica.

Según se detalla, este documento es el resultado de un estudio previo realizado por el Departamento sobre los Principios de Ética de la IA, que fue seguido de un proceso transparente que a lo largo de un años incluyó dos sesiones públicas, tres sesiones de consulta con grupos de expertos en la materia, dos ejercicios prácticos con líderes y personal del Departamento de Defensa y múltiples reuniones y entrevistas con académicos, especialistas en ética, abogados, expertos en derechos humanos, científicos informáticos, tecnólogos, investigadores, líderes de la sociedad civil, filósofos, fondos de inversión, líderes empresariales y funcionarios del

Departamento de Defensa.

La finalidad de esta iniciativa, se indica, es ayudar a guiar, informar e inculcar el uso ético y responsable de la IA - tanto en entornos de combate como de no combate -, “para ayudar a mantener nuestra ventaja tecnológica y ética”.

Y si bien su contenido no es sustancialmente diferente del de otras propuestas y abunda en conceptos relativamente vagos, su elaboración es relevante para un ámbito que, como el militar, ha sido históricamente un muy potente foco de desarrollo científico y tecnológico. La necesidad de obtener una ventaja militar relevante frente al enemigo, ha impulsado la investigación y el avance técnicos, desde el Fuego Griego de la antigüedad a los sistemas de misiles balísticos, pasando por el desarrollo de la aviación, el radar o Internet. Por ello, si los militares necesitan desarrollar sistemas de IA para lograr una ventaja sobre otro país, incluso en esta época de pocos conflictos abiertos, es muy probable que esta tecnología vea impulsado su desarrollo, al menos para los fines que le son propios, de un modo más intenso que la desarrollada para fines civiles.

La ventaja militar no basta

Según se recoge en el documento, mantener una ventaja tecnológica y militar sobre los adversarios es fundamental, pero no es suficiente para cumplir la “misión permanente del Departamento de Defensa de Estados Unidos (DoD)”, consistente en "proporcionar fuerzas militares creíbles en el combate necesarias para disuadir la guerra y proteger la seguridad de nuestra nación".

El DoD subraya que a la vez mantiene “un fuerte compromiso con su conjunto de valores democráticos centrales de los Estados Unidos”, de forma que cualquier ventaja obtenida a expensas de los mismos sería contraproducente.

El desarrollo y uso de la inteligencia artificial (IA) por parte del DoD refleja este desafío, continúa, ya que se espera que la IA afecte a todos las áreas del Departamento y transforme el carácter de la guerra. El DoD está profundamente comprometido con el desarrollo legal, responsable y el uso ético de la IA en todas sus aplicaciones potenciales, y espera animar a otras naciones a hacer compromisos similares.

Por estas razones, la DIB recomienda cinco principios éticos aplicables a la IA, que la Junta recomienda al Secretario de Defensa para su aprobación.

Principios éticos de AI en el ámbito de la defensa

Según la propuesta, estos principios pretenden ser el medio para asegurar un comportamiento ético en el desarrollo y despliegue de la IA por el DoD. Para ello su uso debe ser:

1. Responsable.

Los seres humanos deben ejercer los niveles apropiados de juicio y seguir siendo responsables del desarrollo, despliegue, uso y resultados de los sistemas de IA.

2. Equitativo.

El Departamento de Defensa debe tomar adoptar medidas activas para evitar sesgos involuntarios en el desarrollo y despliegue de sistemas de inteligencia artificial de combate o no de combate que puedan causar daño no intencionado a las personas.

3. Rastreable.

La ingeniería de IA del DoD debe estar lo suficientemente avanzada como para que los expertos técnicos posean una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos de sus sistemas de IA, incluyendo metodologías transparentes y auditables, fuentes de datos, y procedimientos de diseño y documentación.

4. Fiable.

Los sistemas de IA deben tener un ámbito de uso explícito y bien definido, y la seguridad, protección y robustez de dichos sistemas deben probarse y garantizarse a lo largo de todo su ciclo de vida dentro del mismo.

5. Gobernable.

Los sistemas de IA del DoD deben diseñarse y construirse de forma que se asegure que cumplen con la función prevista y, a la vez, deben poseer la capacidad de detectar y evitar daños o interrupciones no deseadas, y permitir la desactivación de los sistemas desplegados que demuestren un comportamiento no deseado.

Recomendaciones

Para conseguir una aplicación efectiva de dichos principios, la DIB ha identificado también una relación de actividades que pueden ayudar a su articulación y adopción, y que por su interés metodológico reseñamos a continuación.

1. Formalizar estos principios a través de los canales oficiales del Departamento de Defensa.

2. Establecer un Comité Directivo de IA para todo el Departamento de Defensa que asegure

3. que la supervisión y ejecución de la Estrategia de IA del Departamento de Defensa y que los proyectos de IA del Departamento sean consistentes con los Principios de Ética de IA del Departamento de Defensa y se integren en muchos aspectos subyacentes de la toma de decisiones.

4. Cultivar y favorecer el crecimiento de la ingeniería de Inteligencia Artificial mediante el desarrollo de prácticas de ingeniería sólidas, la participación de la comunidad de investigación de la IA, la provisión de oportunidades específicas para los investigadores en los primeros años de carrera, y la adaptación del legado de seguridad y responsabilidad del Departamento al campo de la IA para integrar la tecnología de la IA en sistemas de ingeniería más complejos y más grandes.

5. Mejorar la capacitación del Departamento de Defensa y los programas de formación relevantes en habilidades y conocimientos relacionados con la IA.

6. Invertir en investigación sobre nuevos aspectos de seguridad de la IA.

7. Invertir en investigación para reforzar la reproducibilidad de los sistemas, para comprender cómo funcionan los modelos complejos de IA y abordar el llamado problema de las "cajas negras"

8. Definir puntos de referencia de fiabilidad del desempeño de los sistemas.

9. Fortalecer las técnicas de prueba, evaluación, verificación y validación de la IA.

10. Desarrollar una metodología de gestión de riesgos basada en consideraciones éticas, de seguridad y de riesgo legal, favoreciendo la rápida adopción de tecnologías maduras en aplicaciones de bajo riesgo, y enfatizar y priorizar una mayor precaución y escrutinio en las aplicaciones menos maduras y/o que pudiesen generar consecuencias adversas significativas.

11. Garantizar la correcta aplicación de los principios éticos de la IA, evaluando su apropiada implementación.

12. Ampliar la investigación sobre cómo implementar los principios éticos de la IA.

Scroll