Cargando. Por favor, espere

Portada

Ilier Navarro. La transparencia es uno de los siete principios éticos por los que deberían regirse los desarrollos basados en inteligencia artificial. Así lo señala el Reglamento de Inteligencia Artificial (LA LEY 16665/2024) (RIA), que toma como referencia las “Directrices éticas para una IA fiable” que elaboró el Grupo independiente de expertos de alto nivel sobre IA creado por la Comisión Europea en 2019. A partir de esta base, el reglamento desarrolla una serie de normas y obligaciones que marcarán la evolución futura de esta tecnología.

¿Qué se entiende por transparencia cuando hablamos de inteligencia artificial? El propio texto legal lo aclara. Supone que los sistemas de IA se deben desarrollar y utilizar de manera que exista una trazabilidad y explicabilidad adecuadas. En segundo lugar, deben permitir que las personas sean conscientes de que se están comunicando o que están interactuando con un sistema de IA . Y un tercer aspecto de la noción de transparencia conlleva que se informe debidamente de las capacidades y limitaciones de dicho sistema a los responsables del despliegue y también que se informe de sus derechos a las personas afectadas.

Las garantías sobre la trazabilidad vinculada al uso transparente de la IA exigen que, cuando se trate de un sistema que no entraña un riesgo alto, los proveedores documenten un proceso de evaluación previa a la introducción en el mercado o la entrada en servicio del mismo. Dicha documentación se deberá entregar a las autoridades nacionales correspondientes cuando estas lo soliciten.

Otra obligación de los proveedores en relación con la transparencia es el registro del sistema en la base de datos de la Unión Europea (UE) cuya creación prevé el propio reglamento.

La transparencia es también un factor relevante en el caso de los sistemas de inteligencia artificial que se utilicen para garantizar el cumplimiento del derecho porque contribuirá a evitar consecuencias adversas del uso de esta tecnología en el ejercicio de derechos procesales fundamentales, como el derecho a la tutela judicial efectiva y a un juez imparcial, el derecho a la defensa o a la presunción de inocencia. Algunas situaciones disfuncionales o de riesgo se podrían producir si se discrimina a las personas, por ejemplo, como consecuencia de un entrenamiento de mala calidad de la IA, en base a datos poco fiables o mediante procedimientos carentes de solidez o de las garantías suficientes.

IA de alto riesgo

Pero hay escenarios en los que la exigencia de transparencia es decisiva. Así ocurre en los sistemas de IA de alto riesgo, en los que la transparencia es uno de los requisitos necesarios para mitigar de forma efectiva los riesgos para la salud, la seguridad y los derechos fundamentales. “Al no disponerse razonablemente de otras medidas menos restrictivas del comercio, dichos requisitos -entre los que se encuentra el de transparencia- no son restricciones injustificadas al comercio”, subraya el RIA.

La obligación de transparencia se exige respecto de la IA de alto riesgo en fases previas a la introducción en el mercado o puesta en servicio y condiciona su diseño, que debe permitir a los responsables del despliegue comprender su funcionamiento, evaluar su funcionalidad y entender tanto sus fortalezas como sus limitaciones. En este sentido, deben ir acompañados de instrucciones de uso adecuadas a este fin que incluyan ejemplos ilustrativos, así como los usos previstos y excluidos.

Estas instrucciones deben contener información útil para que los responsables del despliegue no solo sean capaces de utilizar el sistema, sino que también les permita adoptar decisiones con conocimiento de causa y elegir correctamente el sistema de acuerdo con las obligaciones que deben cumplir. Esto también es válido sobre las instrucciones que se deben facilitar a las empresas u organismos que utilicen estos sistemas de inteligencia artificial como base para otros desarrollos posteriores o que la integren como parte de los productos que se han propuesto elaborar y comercializar.

Uso de datos

Por otra parte, el uso de datos personales también debe ser transparente, especialmente en lo relacionado con el fin original de la recopilación de dicha información. Una mención especial tiene el tratamiento de datos biométricos en el uso de un sistema de IA, que solo se permitirá cuando sea estrictamente necesario, de acuerdo con la Directiva (UE) 2016/68. Cuando este uso esté autorizado, se debe garantizar que el tratamiento de este tipo de datos sea lícito y leal, así como su transparencia, la limitación de la finalidad, la exactitud y la limitación del plazo de conservación.

¿Y qué ocurre con los datos que se utilizan para el entrenamiento de los modelos de IA de uso general? En estos supuestos, el reglamento pone el foco en la necesidad de que el uso de esta información sea transparente. Para cumplir con este objetivo, este requisito se debe materializar a través de resúmenes a disposición del público que deben garantizar, por una parte, la protección de los secretos comerciales o la información empresarial confidencial, y por otra, facilitar el cumplimiento en materia de derechos de autor. Sobre este asunto, el RIA señala que la Oficina de IA tendrá que elaborar y proporcionar un modelo para el resumen, que debe ser sencillo y eficaz.

Suplantación o engaño

La exigencia de transparencia también está vinculada a los casos en que la interacción con una IA plantee riesgos de suplantación o engaño. Habrá que informar a las personas que están interactuando con un sistema de este tipo, salvo que resulte evidente que es un modelo de inteligencia artificial. En este sentido, se debe prestar especial atención a los colectivos vulnerables por razones de edad o de discapacidad.

Algo similar ocurre cuando se genera o manipula una imagen, un audio o un vídeo mediante inteligencia artificial. Si una persona puede pensar que son reales (ultrasuplantaciones), se debe hacer público de forma clara y transparente que se ha manipulado o creado con IA.

Scroll