Cargando. Por favor, espere

Portada

Carlos B Fernández. A finales de este año, Fundeu designó “emoticono” como palabra del año. Una distinción que muy bien podría haber recaído en “inteligencia artificial”, si esta expresión hubiese entrado en la final, porque pocos conceptos están moviendo en la actualidad tal cantidad de artículos, opiniones y vaticinios. Y todo hay que decirlo, de tan diversa calidad, rigor y fiabilidad.

A falta de una regulación sobre esta tecnología, reclamada con insistencia por múltiples estudiosos jurídicos de la misma, proliferan las propuestas de principios, generalmente éticos, aplicables a la misma. Unos principios sin duda a tener en cuenta, pero que, como ha advertido Moisés Barrio, adolecen del grave defecto de que su incumplimiento puede acarrear quizás que el infractor sufra algunos episodios de remordimiento de conciencia o que incluso acabe padeciendo una dura estancia en las calderas del infierno, aunque ninguna consecuencia jurídica.

Una de las últimas aportaciones al repertorio de decálogo, esta vez más político-técnico que ético, proviene de la misma Casa Blanca, que muy recientemente ha publicado un memorándum que contiene un conjunto de 10 principios que deben considerar las organizaciones dependientes del gobierno federal que desarrollen inteligencia artificial y que pretenda hacerlo con un enfoque regulatorio (a regulatory approach).

El documento “Memorandum for the heads of Executive Departments and Agencies”, parte de la Orden Ejecutiva 13859, “Maintaining American Leadership in Artificial Intelligence” que, como su nombre indica, se orienta a fortalecer la posición de liderazgo de los Estados Unidos en este sector, y se orienta a ofrecer una guía a todas las agencias federales que desarrollan IA, con un planteamiento regulador o no, a la vez que se procura la protección de la tecnología, la economía, la seguridad, las libertades civiles “and other American values”, como la libertad, los derechos humanos, el estado de derecho y el respeto por la propiedad intelectual.

Cabe destacar que en el ámbito militar, el Departamento de Defensa de los EEUU elaboró recientemente unas directrices éticas para el uso de la IA en el mismo.

Concepto de IA

El documento parte de un concepto de IA ya establecido por un documento federal, de carácter fiscal, de agosto de 2018 (Section 238 (g) of the John S. McCain National Defense Authorization Act for Fiscal Year 2019, codified at 10 U.S.C. § 2358, note), según el cual se entiende por esta tecnología:

1) Cualquier sistema artificial que realice tareas en circunstancias variables e impredecibles sin una supervisión humana significativa, o que pueda aprender de la experiencia y mejorar el rendimiento cuando se exponga a conjuntos de datos.

2) Un sistema de software, hardware físico u otro contexto que resuelve tareas que requieren percepción, cognición, planificación, aprendizaje, comunicación o acción física de tipo humano.

3) Un sistema artificial diseñado para pensar o actuar como un humano, incluyendo arquitecturas cognitivas y redes neuronales.

4) Un conjunto de técnicas, incluido el aprendizaje automático (machine learnign), que está diseñado para aproximarse a una tarea cognitiva.

5) Un sistema artificial diseñado para actuar racionalmente, incluyendo un agente inteligente de software o un robot incorporado que logra objetivos usando la percepción, la planificación, el razonamiento, el aprendizaje, la comunicación, la toma de decisiones y la actuación.

Llama la atención que este concepto de racionalidad ha sido incorporado también por la Comisión Europea a su nueva definición de IA, presentada en 2019.

Aparte de esa acotación, es de agradecer que el documento huya de la apelación a todopoderosos sistemas inteligentes omniscientes. Por el contrario, con un enfoque más realista, se centra en la IA "estrecha" o vertical, aquella que puede "aprender y realizar tareas específicas o especializadas de un dominio, extrayendo información de conjuntos de datos u otras fuentes de información estructuradas o no estructuradas", para abordar varias de las preocupaciones que se han planteado en torno a esta tecnología, incluida la transparencia de su uso y el riesgo de sesgos y resultados discriminatorios.

Los diez principios

1. Confianza del público en la IA

Si bien se espera que IA tenga un impacto positivo en todos los sectores de la vida social y económica, incluyendo el empleo, el transporte, la educación, las finanzas, la salud, la seguridad personal y la fabricación, también podrían plantear riesgos para la privacidad, los derechos individuales, la autonomía y las libertades civiles que deben evaluarse cuidadosamente y abordarse de forma adecuada.

Por tanto el informe considera en primer lugar relevante que se promuevan aplicaciones fiables, robustas y dignas de confianza por la ciudadanía.

2. Participación pública

La Administración Trump considera que la participación pública, especialmente en aquellos casos en que IA utilice información sobre las personas, servirá para mejorar la posible regulación que se establezca, en particular, mejorando la definición de los criterios de responsabilidad de las agencias desarrolladoras, aumentando así la confianza pública en la misma.

Por tanto se establecen que las agencias federales deben ofrecer amplias posibilidades para que, con un alcance nacional, el público tenga oportunidad de participación sobre aspectos no esenciales de la tecnologái, (“for a specific aspect related to AI is not essential).

3. Integridad científica y calidad de la información

Los desarrollos de IA deben realizarse a partir de una debida información de los procesos científicos y técnicos aplicables, así como de cualquier información, propia o adquirida por el gobierno a terceros, que previsiblemente pueda tenga una influencia clara y sustancial en las decisiones a adoptar, con un alto nivel de calidad, transparencia y cumplimiento. Esto incluye análisis sobre las fortalezas, debilidades, optimizaciones o resultados previstos, la mitigación de sesgos y los usos apropiados de los resultados de la aplicación de la IA.

Las agencias también deben ser conscientes de que, para que las aplicaciones de IA produzcan resultados predecibles, confiables y optimizados, los datos utilizados para entrenar el sistema de IA deben ser de suficiente calidad para el uso previsto.

4. Evaluación y gestión de riesgos

Los desarrollos de IA deben basarse en una aplicación coherente de la evaluación y la gestión de riesgos por los diferentes organismos intervinientes sobre las distintas tecnologías utilizadas.

No es necesario mitigar todos los riesgos previsibles; de hecho, un principio fundamental de la política regulatoria es que todas las actividades implican compensaciones. En cambio, se debe utilizar un enfoque basado en el riesgo para determinar qué riesgos son aceptables y cuáles presentan la posibilidad de un daño inaceptable, o de un daño que tenga costos superiores a los beneficios esperados.

Los organismos deben ser transparentes en cuanto a sus evaluaciones de riesgo y reevaluar sus supuestos y conclusiones a intervalos apropiados para fomentar la rendición de cuentas.

5. Beneficios y costos

El documento señala que, como todas las transiciones tecnológicas de esta naturaleza, la introducción de la IA también puede plantear desafíos únicos. Por ejemplo, si bien ya se aplica un marco jurídico general a las aplicaciones de la IA, su aplicación a cuestiones como la determinación de responsabilidad por las decisiones adoptadas por la IA podría ser poco clara en algunos casos, lo que llevaría a la necesidad de que los organismos, en consonancia con sus autoridades, evalúen los beneficios, los costos y los efectos distributivos asociados con cualquier método identificado o esperado de rendición de cuentas (accountability).

Los organismos también deben considerar las dependencias críticas cuando evalúen los costos y beneficios de la IA, ya que los factores tecnológicos (como la calidad de los datos) y los cambios en los procesos humanos asociados con la implementación de la IA pueden alterar la naturaleza y la magnitud de los riesgos y beneficios. En los casos en que no se disponga de una comparación con un sistema o proceso actual, también debería evaluarse la evaluación de los riesgos y los costos de no implementar el sistema.

6. Flexibilidad

Las agencias desarrolladoras de sistemas de IA deben buscar enfoques flexibles y basados en el desempeño que puedan adaptarse a los rápidos cambios y actualizaciones de las aplicaciones de IA.

En documento considera que las regulaciones rígidas basadas en el diseño que intentan prescribir las especificaciones técnicas de las aplicaciones de IA serán, en la mayoría de los casos, poco prácticas e ineficaces, dado el ritmo anticipado con el que evolucionará la IA y la consiguiente necesidad de que las agencias reaccionen a la nueva información y pruebas.

En este sentido, los esquemas de evaluación de la conformidad de los organismos para proteger la salud y la seguridad, la privacidad y otros valores serán esenciales para un enfoque exitoso y flexible basado en el desempeño.

7. Equidad y no discriminación

Si bien las aplicaciones de IA tienen el potencial de reducir la discriminación causada por la subjetividad humana, también pueden, en algunos casos, introducir un sesgo que produzca resultados discriminatorios o generen decisiones que socaven la confianza pública en la IA. Por tanto, las organizaciones desarrolladoras deben considerar de manera transparente el impacto discriminatorio que pueden provocar las soluciones de IA.

8. Divulgación y transparencia

Además de mejorar el proceso de elaboración de normas, la transparencia y la divulgación pueden aumentar la confianza del público en las aplicaciones de la IA. Por ejemplo, dicha divulgación puede incluir la información sobre cuándo se está utilizando la IA.

Esta información y transparencia deben ser específicas para cada contexto, dependiendo de las evaluaciones de los daños potenciales, la magnitud de esos daños, el estado de la técnica y los beneficios potenciales de la aplicación de la IA.

9. Seguridad y protección

Las agencias deben promover el desarrollo de sistemas de IA que sean seguros, estén protegidos y que funcionen según lo previsto, fomentando la importancia de las cuestiones relativas a la seguridad y la protección a lo largo del proceso de diseño, desarrollo, despliegue y operación de la IA. Se añade que los organismos desarrolladores deben prestar especial atención a los controles establecidos para garantizar la confidencialidad, la integridad y la disponibilidad de la información procesada, almacenada y transmitida, así como para garantizar la resiliencia sistémica y evitar que actores maliciosos exploten las deficiencias del sistema.

10. Coordinación entre agencias

Finalmente el documento establece la necesidad de un enfoque coherente, basado en la coordinación interinstitucional. Los organismos deben coordinarse entre sí para compartir experiencias y garantizar la coherencia y previsibilidad de las políticas relacionadas con la IA que fomenten la innovación y el crecimiento de la IA en los Estados Unidos, protegiendo al mismo tiempo de manera adecuada la privacidad, las libertades civiles y los valores estadounidenses, y permitiendo enfoques específicos para cada sector y aplicación cuando sea apropiado.

¿Unos principios demasiado genéricos?

Algunos expertos norteamericanos han reaccionado a este documento señalando sus críticas. Así, Dan Broderick, CEO de BlackBoiler, en declaraciones a Law.com, considera que ninguno de los principios incluidos en el memorándum es específico de la IA o de la tecnología en general y que, por el contrario, podía aplicarse a casi cualquier otra actividad.

"Los principios de IA publicados por la Casa Blanca están muy en línea con la postura de la actual administración sobre la desregulación, donde el poder ejecutivo está esencialmente diciendo a las agencias federales, 'piensen mucho antes de decidir regular la inteligencia artificial' para no sofocar la innovación o el desarrollo económico en esta área", señaló Broderick.

Scroll