Cargando. Por favor, espere

Portada

Uno de los reproches que frecuentemente se formulan a los proyectos de regulación de la tecnología y, en particular, de la IA, es que su excesiva rigidez puede limitar el desarrollo de la innovación. Principalmente, porque si las empresas se ven sometidas a un marco regulatorio excesivamente rígido o restrictivo, podrían verse tentadas o bien de limitar su actividad o bien de trasladarla a otros entornos más favorables.

En este sentido, el Reino Unido ha mantenido, desde años atrás, una actitud sumamente abierta y favorable a la innovación, liberalizando ampliamente la prestación de servicios y la investigación tecnológica. Una postura que se ha visto favorecida o impulsada con motivo de la salida del país de la Unión Europea.

Una nueva muestra de esta posición es el muy reciente documento “Un acercamiento a la regulación de la IA favorable a la innovación” (A pro-innovation approach to AI regulation), presentado ante el Parlamento británico por la ministra de Ciencia, Innovación y Tecnología, Michelle Donelan.

Un documento particularmente relevante si se tiene en cuenta que, como se indica en su presentación, el Reino Unido ocupa el tercer puesto mundial en investigación y desarrollo de IA, siendo, además, la sede de un tercio del total de empresas europeas de IA, lo que significa casi el doble que cualquier otro país europeo. Por ejemplo, es sede de DeepMind, una empresa que ha logrado definir la estructura de casi todas las proteínas conocidas por la ciencia.

Como se señala en la presentación de este documento, el éxito de la IA en el Reino Unido se debe, en parte, a su reputación de regulador de alta calidad técnica y a un sólido enfoque en el Estado de Derecho, respaldado por una legislación y una normativa neutrales con respecto a la tecnología. Según el gobierno británico, esta sólida base jurídica, junto con unos tribunales abiertos a considerar los riesgos emergentes que plantean las tecnologías, fomenta la inversión en nuevas tecnologías, lo que permite que prospere la innovación en IA y que florezcan empleos de alta calidad.

Con todo, el enfoque gradual propuesto por el gobierno, reconoce que la regulación no siempre es la forma más eficaz de apoyar la innovación responsable. Por ello, el marco propuesto está en consonancia con, y se complementa con, una serie de herramientas para una IA fiable, como técnicas de garantía, orientaciones voluntarias y normas técnicas.

El nuevo marco británico de la IA

El informe parte del Marco Científico y Tecnológico del Reino Unido (The UK Science and Technology Framework), que establece la visión estratégica del Gobierno británico en relación con las tecnologías, que identifica a la IA como una de las cinco tecnologías críticas de los próximos años, junto con la bioingeniería, las telecomunicaciones, los semiconductores y la computación cuántica.

En este marco se destaca el relevante papel de la regulación en la creación de un entorno propicio para el florecimiento de la IA. En este sentido se indica que, si se dan las condiciones adecuadas, la IA transformará todos los ámbitos de la vida y estimulará la economía del Reino Unido dando rienda suelta a la innovación e impulsando la productividad, creando nuevos puestos de trabajo y mejorando el lugar de trabajo.

El propósito general del nuevo documento es proponer un marco favorable a la innovación, diseñado para dar a los consumidores la confianza necesaria para utilizar productos y servicios de IA y, a la vez, proporcionar a las empresas la claridad que necesitan para invertir en IA e innovar de forma responsable.

A partir de esa finalidad, se han definido tres objetivos que se pretenden alcanzar:

- Impulsar el crecimiento y la prosperidad facilitando una innovación responsable y reduciendo la incertidumbre normativa. Esto fomentará la inversión en IA y apoyará su adopción en toda la economía. en toda la economía, creando empleo y ayudando a hacerlo de forma más eficiente.

Para lograr este objetivo se debe actuar con rapidez para eliminar las barreras existentes a la innovación y prevenir la aparición de otras nuevas. Esto permitirá a las empresas de IA capitalizar éxitos iniciales de desarrollo y lograr una ventaja de mercado a largo plazo. De esta forma, se prevé poder dotar a los innovadores británicos de una ventaja en la carrera mundial por la IA, maximizando el valor económico y social de estas tecnologías y reforzando su posición como líder mundial en IA.

- Aumentar la confianza pública en la IA abordando los riesgos y protegiendo los valores fundamentales.

La confianza es un factor crítico para la adopción de la IA. Si la gente no confía en la IA, será reacia a utilizarla. Esta reticencia puede reducir la demanda de productos de IA y obstaculizar la innovación.

Por lo tanto, se fija como objetivo demostrar que el marco regulador aborda eficazmente los riesgos de la IA.

- Reforzar la posición del Reino Unido como líder mundial en IA.

En su esencia, el marco propuesto se basa en cinco principios que guían e informan el desarrollo y el uso responsables de la IA en todos los sectores en todos los sectores de la economía: Seguridad, protección y solidez; Transparencia y explicabilidad adecuadas; Equidad; Responsabilidad y gobernanza y Derecho de recurso y reparación

El punto de partida: un concepto pragmático de IA

Para regular eficazmente la IA, y para apoyar la claridad del marco propuesto, el documento considera necesario un entendimiento común de lo que se entiende por "inteligencia artificial", puesto que hasta la fecha no existe una definición de la misma que goce de un consenso generalizado.

Para ello, y con un enfoque claramente pragmático, el documento plantea una aproximación a esta concepto basada en dos características específicas de esta tecnología que generan la necesidad de una respuesta reguladora específica.

1. La "adaptabilidad" de la IA puede dificultar la explicación de la intención o la lógica de los resultados del sistema:

- Los sistemas de IA se "entrenan" --una vez o continuamente-- y funcionan deduciendo patrones y conexiones entre los datos que a menudo no son fácilmente discernibles para los humanos.

- A través de este entrenamiento, los sistemas de IA suelen desarrollar una capacidad de realizar nuevas formas de inferencia no previstas directamente por sus programadores humanos.

2. La "autonomía" de la IA puede dificultar la asignación de responsabilidades por los resultados obtenidos:

- Algunos sistemas de IA pueden adoptar decisiones sin la intención expresa o el control continuo de un humano.

Según se indica, esta combinación de adaptabilidad y autonomía puede dificultar la explicación, la predicción o el control de los resultados de un sistema de IA, o la lógica subyacente por la que se generan. Del mismo modo, ello puedo hacer que resulte difícil asignar la responsabilidad del funcionamiento y los resultados del sistema. Una situación que, en el ámbito normativo, puede tener graves consecuencias, sobre todo cuando se toman decisiones sobre cuestiones importantes, como la salud de una persona, o cuando se espera que una decisión sea justificable en términos fácilmente comprensibles, como una resolución judicial.

Por tanto, el documento considera que definir la IA con referencia a estas capacidades funcionales, y diseñar en base a las mismas su enfoque para hacer frente a los retos creados por estas características, se prepara el marco normativo frente a la futura evolución de estas tecnologías y las características imprevistas que estas puedan plantear en el futuro. Y al no diseñar nuevas normas generales para tecnologías o aplicaciones específicas de la IA, como el reconocimiento facial o los LLM, no se considera necesario utilizar definiciones jurídicas rígidas.

Es de destacar igualmente que el documento considera que el aprendizaje automático (machine learning) es un subconjunto de la IA y aunque es la forma de IA más utilizada en la actualidad, el diseño de esta regulación basado en sus características de adaptación y autonomía garantizan que cualquier sistema de IA actual o futuro que cumpla estos criterios estará dentro del ámbito de aplicación del nuevo marco.

Un enfoque basado en el contexto de uso de los sistemas de IA 

La principal diferencia del marco regulador británico en relación con el propuesto por la Unión Europea se encuentra en su aproximación al concepto de riesgo.

Mientras que Europa propone una regulación basada en considerar de alto riesgo, con carácter general, el uso de sistemas de IA en sectores o actividades concretas, la propuesta británica se orienta a definir un marco específico para cada contexto. En consecuencia, no se asigna por defecto un nivel de riesgo a sectores o tecnologías completos.

En su lugar, se pretende regular en función de los resultados que la IA pueda generar en aplicaciones concretas. Por ejemplo, se considera que no sería proporcionado ni eficaz clasificar todas las aplicaciones de la IA en infraestructuras críticas como de alto riesgo, pues se entiende que algunos usos de la IA en infraestructuras críticas (“como la identificación de arañazos superficiales en la maquinaria”), pueden plantear un riesgo relativamente bajo. Mientras que, del mismo modo, un chatbot impulsado por IA utilizado para la clasificación de las solicitudes de servicio al cliente de un vendedor minorista de ropa en línea, no debe ser regulado de la misma manera que una aplicación similar utilizada como parte de un proceso de diagnóstico médico.

Según el regulador británico, este enfoque específico para cada contexto permitirá que el marco responda al nivel de riesgo de manera proporcionada y evite ahogar la innovación o perder oportunidades de capitalizar los beneficios sociales que ofrece la IA.

El marco normativo propuesto

Este enfoque innovador de la regulación de la IA utiliza un marco basado en principios, para que los reguladores lo interpreten y apliquen a la IA dentro de sus competencias. Este enfoque colaborativo e iterativo puede seguir el ritmo de una tecnología en rápida evolución que requiere una acción proporcionada para equilibrar el riesgo y la oportunidad y fortalecer la posición del Reino Unido como líder mundial en IA. Este enfoque ágil está en consonancia con el informe de Sir Patrick Vallance “Regulation for Innovation” (Regulación para la innovación), que subraya que los enfoques reguladores flexibles pueden lograr un mejor equilibrio entre la claridad y la confianza, permitiendo la experimentación.

En este sentido se han identificado como características esenciales del nuestro régimen regulador, las de ser favorable a la innovación, proporcionado, fiable, adaptable, claro y colaborativo.

- Favorable a la innovación significa que debe permitir una innovación responsable en lugar de reprimirla.

- Proporcionado: evitando cargas innecesarias o desproporcionadas para empresas y reguladores.

- Digna de confianza: aborda los riesgos reales y fomenta la confianza pública en la IA para promover y fomentar su adopción.

- Adaptable: para permitir adaptarse rápida y eficazmente al ritmo de las nuevas oportunidades y riesgos a medida que evolucionan las tecnologías de la IA.

- Claro: facilitando que los agentes del ciclo de vida de la IA, incluidas las empresas que la utilizan, sepan cuáles son las normas y a quién se aplican, quién las hace cumplir y cómo cumplirlas.

- Colaborativo: debe animar a gobiernos, reguladores e industria a trabajar juntos para facilitar la innovación en IA, generar confianza y garantizar que la voz del público sea escuchada y tenida en cuenta.

Para reunir esas características, el marco se ha diseñado en torno a los cuatro elementos clave que se indican a continuación:

- La definición de la IA en función de sus características únicas, a la que nos hemos referido anteriormente.

- Un enfoque de riesgo específico para cada contexto de uso de la IA, al que también nos hemos referido ya.

- Diseñar un conjunto de principios intersectoriales para orientar las respuestas de los reguladores a los riesgos y oportunidades que plantea la IA.

Estos principios, basados en los de la Organización de Cooperación y Desarrollo Económicos (OCDE) sobre el uso ético de la IA, son los de:

1. Seguridad, protección y solidez

Los sistemas de IA deben funcionar de forma robusta, segura y protegida durante todo el ciclo de vida de la IA. Los riesgos asociados a su uso deben identificarse, evaluarse y gestionarse continuamente.

2. Transparencia y explicabilidad adecuadas

Los sistemas de IA deben ser adecuadamente transparentes y explicables.

La transparencia se refiere a la comunicación de información adecuada sobre un sistema de IA a las personas pertinentes (por ejemplo, información sobre cómo, cuándo y con qué fines se utiliza un sistema de IA). La explicabilidad se refiere a la medida en que las partes interesadas pueden acceder, interpretar y comprender los procesos de toma de decisiones de un sistema de IA.

Un nivel adecuado de transparencia y explicabilidad significará que los reguladores dispongan de información suficiente sobre los sistemas de IA y sus entradas y salidas asociadas para dotar de efecto significativo a los otros principios (por ejemplo, para identificar a los posibles sujetos responsables). El nivel de transparencia y explicabilidad debe ser proporcional al riesgo o riesgos que presenta un sistema de IA.

3. Equidad

Los sistemas de IA no deben socavar los derechos legales de personas u organizaciones, discriminar injustamente a las personas o crear resultados injustos para el mercado. Los actores implicados en todas las fases del ciclo de vida de la IA deben considerar una definición de imparcialidad que sea apropiadas para el uso de un sistema, sus resultados y la aplicación de la legislación pertinente.

La equidad es un concepto arraigado en muchos ámbitos de la legislación y la reglamentación, como la igualdad y los derechos humanos, la protección de datos, el derecho del consumidor y de la competencia, el derecho público y el derecho consuetudinario, y las normas que protegen a las personas vulnerables. vulnerables.

4. Rendición de cuentas y gobernanza

Deben establecerse medidas de gobernanza para garantizar una supervisión eficaz del suministro y uso de sistemas de IA, con líneas claras de responsabilidad establecidas en todo el ciclo de vida de la IA.

Los actores del ciclo de vida de la IA deben tomar medidas para considerar, incorporar y adherirse a los principios e introducir las medidas necesarias para la aplicación efectiva de los principios en todas las fases del ciclo de vida de la IA.

5. Derecho a la impugnación y a obtener una reparación

Cuando proceda, los usuarios, los terceros afectados y los agentes del ciclo de vida de la IA deben poder impugnar una decisión o un resultado de la IA que sea perjudicial o que cree un riesgo material de daño.

Estos principios aclaran las expectativas del gobierno en relación con el diseño de una IA responsable y describen la buena gobernanza en todas las fases del ciclo de vida de la IA.

En un principio, estos principios no tendrán carácter obligatorio, ya que se considera que los nuevos requisitos legislativos a las empresas podrían frenar la innovación en IA y reducir nuestra capacidad de responder rápida y proporcionada a los futuros avances tecnológicos. Por tanto, la aplicación de esos principios quedará inicialmente a discreción de los reguladores, lo que permitirá establecer prioridades en función de las necesidades de sus sectores.

Tras este periodo inicial de aplicación no obligatoria de dichos principios, y cuando el Parlamento lo decida, se prevé la introducción de una obligación legal que exija a los reguladores el cumplimiento obligatorio de esos principios.

Se espera que los reguladores apliquen los principios de forma proporcionada para hacer frente a los riesgos que plantea la IA en el ámbito de sus competencias, de conformidad con las leyes y reglamentos vigentes. De este modo, complementarán la normativa existente, aumentarán la claridad y reducirán las fricciones para las empresas que operan en distintos ámbitos de regulación.

- Establecer nuevas funciones centrales para ayudar a los reguladores a aplicar el marco regulador de la IA, maximizar los beneficios de un enfoque iterativo y garantizar que el marco sea coherente

Apoyo a las políticas de innovación

Sentadas esas bases, el documento propugna que el Gobierno pondrá en marcha un nuevo marco para aportar claridad y coherencia al panorama regulador de la IA. Este régimen está diseñado para facilitar la innovación responsable. Reforzará la posición del Reino Unido como líder mundial en IA, aprovechará la capacidad de la IA para impulsar el crecimiento y la prosperidad, y aumentará la confianza pública en su uso y aplicación.

Este marco adoptará un enfoque deliberadamente ágil e iterativo, reconociendo la velocidad a la que están evolucionando estas tecnologías para crear una base empírica que permita aprender de la experiencia y adaptarse continuamente para desarrollar el mejor régimen regulador posible.

En el documento político sobre la regulación de la IA de 2022 (Establishing a pro-innovation approach to regulating AI), se propuso una pequeña capa de coordinación dentro de la arquitectura reguladora. Sin embargo, los comentarios recibidos a menudo abogaban firmemente por una mayor coordinación central para apoyar a los reguladores en cuestiones que requieren una colaboración transversal.

En paralelo, se han identificado una serie de funciones centrales de apoyo necesarias para garantizar que el marco general ofrezca una respuesta proporcionada pero eficaz al riesgo, promoviendo al mismo tiempo la innovación en todo el panorama regulador:

• Supervisión y evaluación de la eficacia del marco regulador general y de la aplicación de los principios, incluida la medida en que la aplicación apoya la innovación. Esto nos permitirá seguir siendo receptivos y adaptar el marco en caso necesario, incluso cuando sea necesario adaptarlo para que siga siendo eficaz en el contexto de la evolución de las capacidades de la IA y el estado de la técnica.

• Evaluar y supervisar los riesgos para toda la economía derivados de la IA.

• Llevar a cabo una exploración del horizonte y un análisis de las carencias, incluso convocando a la industria, para dar una respuesta coherente a las nuevas tendencias tecnológicas de la IA. una respuesta coherente a las nuevas tendencias tecnológicas de la IA.

• Apoyar los bancos de pruebas y las iniciativas "sandbox" para ayudar a los innovadores de la IA a introducir nuevas tecnologías en el mercado. tecnologías al mercado.

• Proporcionar educación y concienciación para dar claridad a las empresas y capacitar a los ciudadanos para que hagan oír su voz en el marco de la sociedad de la información. sus voces como parte de la iteración en curso del marco.

• Promover la interoperabilidad con los marcos reguladores internacionales.

Estas funciones centrales de apoyo se llevarán a cabo inicialmente desde el Gobierno, pero se aprovecharán las actividades y la experiencia existentes en el conjunto de la economía. Las actividades descritas Las actividades descritas anteriormente no sustituirán ni duplicarán el trabajo realizado por los reguladores y no implicarán la creación de un nuevo regulador de la IA. la creación de un nuevo regulador de la IA.

Scroll