Víctor Almonacid Lamelas
Letrado experto en Derecho Digital
1. Digital Trust (confianza digital). Es la confianza que los usuarios depositan en una organización, tecnología o sistema para manejar sus datos de manera segura, ética y transparente. La IA requiere grandes cantidades de datos personales para entrenarse, lo que genera preocupaciones sobre cómo se recopilan, almacenan y utilizan esos datos. Las entidades públicas deben garantizar que sus sistemas sean seguros, que respeten la privacidad de los usuarios y que cumplan la normativa (especialmente el RGPD).
2. Sesgo algorítmico. Se refiere a los prejuicios o discriminaciones inherentes a los sistemas de IA, que surgen del mismo diseño del algoritmo o de los datos de entrenamiento. Este sesgo puede perpetuar desigualdades existentes, como la discriminación por género, raza o nivel socioeconómico. En todo caso, los sistemas de IA de alto riesgo que utilizan técnicas que implican el entrenamiento de modelos de IA con datos se desarrollarán a partir de conjuntos de datos de entrenamiento, validación y prueba que cumplan los criterios de calidad (art. 10 del Reglamento de Inteligencia Artificial, en adelante RIA).
3. Cajas negras y algoritmos opacos. Una caja negra es un sistema donde las decisiones y procesos internos no son comprensibles para las personas. Por su parte, los algoritmos opacos son aquellos cuyo funcionamiento no es transparente, ya sea por su complejidad técnica o porque los desarrolladores han decidido no revelar su lógica. En ambos casos se dificulta la rendición de cuentas. La solución pasa por promover la explicabilidad de los algoritmos y exigir transparencia en su diseño, cuestión que abordamos a continuación.
4. Explainability (explicabilidad). Capacidad de un sistema de IA para explicar y justificar sus decisiones o predicciones de manera comprensible para los usuarios. Resulta fundamental para generar la aludida confianza, siendo clave en determinados servicios públicos, como sanidad o los servicios asistenciales, así como en cualquier otro donde el bien jurídico protegido sea elevado o el derecho en cuestión sea fundamental.
5. Sistemas de riesgo (risk scoring systems). Según el art. 3, apartado 2 del RIA, «riesgo» es la combinación de la probabilidad de que se produzca un perjuicio y la gravedad de dicho perjuicio. Cuando el riesgo es elevado, el RIA establece prácticas de IA directamente prohibidas (art. 5) y de alto riesgo (art. 6). El resto de usos y sistemas de IA generan un riesgo limitado o mínimo.
6. Dilema de la opción informada. Situación en la que los usuarios que desean utilizar un servicio deben aceptar términos y condiciones demasiado extensos y complejos, sin comprender realmente cómo se utilizarán sus datos. En estos casos se obtiene un consentimiento «poco informado». Este punto nos lleva al siguiente.
7. Fatiga del consentimiento. Se refiere a la sobrecarga de solicitudes de consentimiento a los usuarios para procesar sus datos, lo que a menudo resulta en decisiones impulsivas o no informadas. La complejidad de los sistemas de IA y los aludidos términos técnicos agravan este problema, que podría mitigarse introduciendo sistemas de consentimiento dinámico y simplificado que sean más accesibles para los usuarios.
8. Reducción de la privacidad contextual. Falta de capacidad de los usuarios para controlar la forma en que se comparten sus datos según el contexto en que fueron generados. Los algoritmos de IA pueden analizar datos de múltiples contextos (por ejemplo, redes sociales, compras en línea, datos de salud) para crear perfiles detallados. Esto puede llevar a la pérdida de privacidad contextual, donde los datos de un ámbito son usados en otro.
9. Reidentificación de datos. Aunque los datos personales pueden ser anonimizados, los sistemas de IA avanzados son capaces de cruzar información para identificar a personas específicas. Por ejemplo, un conjunto de datos anonimizados se puede comparar con algunos perfiles coincidentes en redes sociales y finalmente revelar la identidad de una persona. Este problema requiere el desarrollo de técnicas más sólidas de anonimización, como la privacidad diferencial.
10. Intimidad computacional. Nuevo concepto que busca garantizar que los algoritmos respeten la «intimidad» de las interacciones digitales, permitiendo que los usuarios mantengan un nivel de privacidad en sus relaciones con la tecnología. Valga el ejemplo de algunos chatbots de IA que no respetan estos límites éticos y recopilan de las conversaciones datos personales innecesarios.
11. Sobrecarga de transparencia. Aunque la transparencia es esencial, ofrecer demasiada información técnica o poco comprensible sobre los sistemas de IA puede abrumar a los usuarios. Valga el ejemplo ya visto de algunos documentos de política de privacidad que son tan extensos que, aunque técnicamente explican el uso de IA, carecen de claridad práctica. Debemos implementar herramientas de comunicación claras y accesibles.
12. Sesgo de automatización. Tendencia de las personas a confiar excesivamente en las decisiones o recomendaciones de un sistema automatizado, sobre todo cuando ya ha demostrado ser altamente fiable. Se corrige promoviendo la supervisión humana (ver punto siguiente) y la validación última de las decisiones automatizadas, ya que en todo caso existe un derecho de los individuos a no ser sometidos a decisiones automatizadas que tengan efectos significativos sobre ellos (art. 22 del RGPD (LA LEY 6637/2016)).
13. Supervisión de la IA. Es el establecimiento de comités o sistemas de auditoría validados en última instancia por seres humanos, a fin de garantizar que los desarrollos y aplicaciones de IA cumplan con los principios éticos: transparencia, mitigación de riesgos, «justicia algorítmica» (algorithmic fairness), inclusión de diversas perspectivas en el diseño y uso de la IA, etc. Según el art. 14 RIA, los sistemas de IA de alto riesgo se diseñarán y desarrollarán de modo que puedan ser vigilados de manera efectiva por personas físicas durante el período que estén en uso, lo que incluye dotarlos de herramientas de interfaz humano-máquina adecuadas.