La inteligencia artificial es tecnología disruptiva, una oportunidad de mejora en múltiples aspectos, pero precisamente por estas características no puede desconectarse de otros conceptos clave como son el liderazgo humanista, los valores empresariales y la visión crítica de sus implicaciones y posibles efectos. El potencial transformador de la IA es enorme y exigirá a las organizaciones que se replanteen el modo en que se usan los datos personales, la preparación para afrontar los retos regulatorios y la adopción de nuevas prácticas organizativas que ayuden a evitar y mitigar los riesgos. A continuación, el “abc” de la IA que deberían controlar las empresas y sus máximos responsables.
En el momento en que nos encontramos, cuando hablamos de IA no lo hacemos únicamente de lo que este desarrollo tecnológico y los algoritmos pueden hacer, sino de lo que las personas estamos dispuestas a hacer a través de esta herramienta. Y es que ya no cabe duda de que la inteligencia artificial es el motor de la transformación tecnológica actual, con aplicaciones que abarcan desde la actividad empresarial hasta la salud, la educación o el ocio.
Así lo puso de manifiesto el informe del Observatorio de Regulación Digital y Tecnología, una iniciativa que impulsan la Universidad de Navarra y Deloitte Legal que analiza el impacto de la IA desde una perspectiva jurídica y ética, profundizando en los riesgos, la regulación y la necesidad de garantizar un uso responsable en diversos ámbitos de la actividad empresarial, el mercado laboral, la salud, el diseño de políticas públicas o las smart cities.
Desde un punto de vista técnico y jurídico en el marco regulador de la Unión Europea, el uso de sistemas de IA tiene un impacto directo en los derechos fundamentales, la responsabilidad civil derivada de su uso, el buen gobierno corporativo, la soberanía digital o la importancia de los datos como pilar esencial del desarrollo tecnológico. Para comprender los desafíos que entraña, será imprescindible adoptar una perspectiva que combine el análisis normativo, estratégico y ético.
Lo primero: qué es la IA y qué son los sistemas de IA
Los conceptos básicos que hay que tener claros es el de IA, entendida como una aplicación informática capaz de realizar tareas que requieren inteligencia humana: analizar datos, tomar decisiones o elaborar planes. Funciona a partir de grandes bases de datos ya tratados y de instrucciones, aunque con una ventaja novedosa: es capaz de aprender y adaptarse.
Por otra parte, los sistemas de IA son conjuntos más complejos, que combinan algoritmos, datos y estructuras de procesamiento y pueden operar con distintos niveles de autonomía, aprendizaje y adaptación. Según su nivel de autonomía, pueden considerarse sistemas automatizados simples (inteligencia artificial débil, orientada a tareas concretas) o bien soluciones avanzadas con capacidad de autoaprendizaje (inteligencia artificial fuerte, con capacidad de generación).
Entre sus principales técnicas se encuentran el aprendizaje automático, el aprendizaje profundo y el aprendizaje por refuerzo.
El surgimiento de técnicas como el aprendizaje automático o los modelos de lenguaje de gran escala (LLM) ha planteado nuevos retos regulatorios relacionados con su opacidad, su capacidad de manipulación y su dependencia de grandes volúmenes de datos.
El RIA, enfocado en los riesgos y en el ser humano
Como respuesta a estos desafíos, la UE ha creado un marco regulatorio específico: el Reglamento Europeo de Inteligencia Artificial (LA LEY 16665/2024) (RIA), cuyo enfoque se centra en los riesgos que permite categorizar los sistemas según su nivel de peligrosidad y su impacto potencial sobre derechos y libertades.
La fuente de inspiración ha sido el Reglamento General de Protección de Datos (RGPD) (LA LEY 6637/2016), por lo que el enfoque se centra en el ser humano. Como el uso de sistemas de IA puede afectar de forma directa o indirecta al conjunto de los derechos fundamentales, desde la privacidad y la libertad de expresión hasta la igualdad o el derecho a no ser discriminado, los riesgos se clasifican en cuatro niveles: inaceptable (en cuyo caso se trata de un uso prohibido), alto (sometidos a un sistema de evaluación de impacto y supervisión humana o trazabilidad algorítmica, con requisitos técnicos y legales más duros), o limitado y mínimo (con medidas más flexibles).
Tal como destaca el informe del Observatorio, el modelo europeo combina normas éticas, técnicas y jurídicas bajo tres pilares: un marco ético no vinculante, estándares técnicos armonizados y una regulación legal exigente. De esta manera, se persigue fomentar la innovación, pero sin renunciar a principios como la transparencia, la seguridad, la privacidad de las personas o la no discriminación, con un marcado enfoque en los derechos fundamentales.
La IA y los datos de las personas
La IA puede causar daños y es necesario tenerlo en cuenta, puesto que de acuerdo con el enfoque que ha enfatizado el legislador europeo, los sistemas basados en esta tecnología deben respetar de forma absoluta la dignidad humana, que se posiciona como orientadora de los desarrollos y, a la vez, como límite infranqueable.
Además, el Reglamento Europeo de Inteligencia Artificial (LA LEY 16665/2024) (RIA) es un cruce de caminos en el que confluyen varias normativas de suma relevancia vinculadas con la identidad digital, las de ciberseguridad y resiliencia operativa, y otras sobre utilización y reutilización de los datos.
Pero ¿por dónde deberían empezar las empresas para conocer los alcances de estos desarrollos tan disruptivos? Por lo que se ha denominado como “gasolina” de la IA: los datos, que son el alimento de los modelos de lenguaje natural.
De acuerdo con el “Informe sobre Inteligencia artificial”, uno de los aspectos prioritarios que deben abordar las organizaciones se basa en cómo van a gestionar los datos personales, que va mucho más allá de la exigencia de cumplimiento normativo en el tratamiento de esta información. Según el documento, organizar, proteger y racionalizar su uso será una prioridad.
Responsabilidad civil por errores de la IA
El marco europeo ha actualizado el régimen de responsabilidad por producto defectuoso para incluir los sistemas de IA, introduciendo plazos específicos y contemplando los daños derivados de errores algorítmicos. Para una adecuada reparación del daños cuando un error ocurre como consecuencia de decisiones algorítmicas complejas, se contempla ampliar la definición de “productor” a operadores tecnológicos, distribuidores y entidades que modifiquen modelos tras su lanzamiento. Además, se introducen mecanismos para facilitar la prueba en beneficio del perjudicado.
Con estas iniciativas, se quiere reforzar la protección del consumidor y clarificar el papel de fabricantes, distribuidores e integradores de sistemas de IA en caso de fallos o daños. Además, se estudia el impacto de la autonomía de los sistemas de IA sobre la imputabilidad de acciones, abriendo el debate sobre la necesidad de nuevas figuras jurídicas.
Para ello, se requiere de una norma que ofrezca seguridad jurídica, dado que la propuesta de Directiva de 2022 del Parlamento Europeo fue retirada.
Bueno gobierno corporativo y decisiones con IA
Si nos centramos en el buen gobierno corporativo, la IA plantea un debate en el que convergen el derecho, la tecnología digital y la ética, con una visión estratégica y de controles adecuados. Su irrupción en las organizaciones obligará a profunda revisión de los sistemas de control internos y las prácticas de diligencia debida porque tiene el potencial de transformar la toma de decisiones empresariales, desde el análisis financiero hasta la estrategia ESG, y plantea nuevas exigencias de supervisión, transparencia y rendición de cuentas para los órganos de administración.
¿Qué ha ocurrido en los últimos años? Hasta ahora, los antecedentes de la legislación europea y de códigos de buen gobierno centran el foco en conservar el juicio humano como factor último en la toma de decisiones.