Cargando. Por favor, espere

Inteligencia artificial, consejos de administración de sociedades cotizadas y buen gobierno corporativo

Inteligencia artificial, consejos de administración de sociedades cotizadas y buen gobierno corporativo

Luis Cazorla González-Serrano

Profesor Titular de Derecho Mercantil URJC

Diario LA LEY, Nº 10643, Sección Tribuna, 14 de Enero de 2025, LA LEY

LA LEY 31952/2024

Normativa comentada
Ir a Norma TUE 7 Feb. 1992 (Tratado Maastricht)
Ir a Norma Regl. (UE) 2024/1689 UE, de 13 Jun. (normas armonizadas en materia de inteligencia artificial)
Ir a Norma RDLeg. 1/2010 de 2 Jul. (texto refundido de la Ley de Sociedades de Capital)
Comentarios
Resumen

Las posibilidades que brinda la IA como herramienta para mejorar la eficiencia de procesos, información y la toma de decisiones estratégicas y empresariales abre un mundo de alternativas al que de manera muy rápida se van abrazando el conjunto de grandes corporaciones mercantiles y empresas.

Portada

I. El uso y realidad de la inteligencia artificial en las grandes sociedades mercantiles y cotizadas

La Inteligencia Artificial (IA), en particular, la generativa ha irrumpido con fuerza como tecnología fundacional con una profunda capacidad de transformación de organizaciones, instituciones, procesos y la actividad económica y empresarial en general.

Como tecnología fundacional constituye la base para el desarrollo de otras tecnologías, productos o sistemas. Estas tecnologías suelen tener un impacto transformador y amplio, afectando múltiples sectores e industrias. Son clave para impulsar la innovación y el progreso económico a largo plazo y se caracterizan por su amplitud de aplicación, por su capacidad transformadora y por ser la base de nuevas tecnologías o aplicaciones específicas apoyadas en la misma.

Las posibilidades que brinda como herramienta para mejorar la eficiencia de procesos, información y la toma de decisiones estratégicas y empresariales abre un mundo de alternativas al que de manera muy rápida se van abrazando el conjunto de grandes corporaciones mercantiles y empresas, muy en particular las cotizadas. Ya sea por el convencimiento de las ventajas que ofrece, ya sea por la necesidad de adaptarse al mercado y a su evolución, cada vez es más frecuente no sólo el recurso a sistemas de IA de tipo general para la gestión corporativa interna a todos los niveles, sino IA generativa con trascendencia externa o en la toma de decisiones de negocio, incluso estratégicas. Unos sistemas de IA que, en ocasiones, son adaptaciones de sistemas generales y, en otras, cada vez más frecuentes, modelos específicos de IA diseñados por la propia sociedad en lo que constituyen una manifestación clara de know how concreto.

En todo caso, la IA, frente a otros procesos de innovación tecnológica, por su propia naturaleza y características, tiene una capacidad transformadora fundacional, con el alcance que una tecnología de esta naturaleza implica y la necesidad de adaptación de estructuras organizativas, de toma de decisión y de control de riesgos y jurídicas.

La creciente importancia de la IA ha impulsado su regulación armonizada a nivel comunitario y a esa necesidad responde el Reglamento (UE) 2024/1689, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (LA LEY 16665/2024) (el Reglamento de IA (LA LEY 16665/2024))

De este modo, tal y como destaca el propio Reglamento de IA (LA LEY 16665/2024) en su considerando número cuatro (4):

"La IA es un conjunto de tecnologías en rápida evolución que contribuye a generar beneficios económicos, medioambientales y sociales muy diversos en todos los sectores económicos y las actividades sociales. El uso de la IA puede proporcionar ventajas competitivas esenciales a las empresas y facilitar la obtención de resultados positivos desde el punto de vista social y medioambiental en los ámbitos de la asistencia sanitaria, la agricultura, la seguridad alimentaria, la educación y la formación, los medios de comunicación, el deporte, la cultura, la gestión de infraestructuras, la energía, el transporte y la logística, los servicios públicos, la seguridad, la justicia, la eficiencia de los recursos y la energía, el seguimiento ambiental, la conservación y restauración de la biodiversidad y los ecosistemas, y la mitigación del cambio climático y la adaptación a él, entre otros, al mejorar la predicción, optimizar las operaciones y la asignación de los recursos, y personalizar las soluciones digitales que se encuentran a disposición de la población y las organizaciones."

La contrapartida a los beneficios y ventajas que la IA ofrece es el conjunto de riesgos que se desprenden de su utilización. De este modo, dependiendo de las circunstancias relativas a su aplicación, utilización y nivel de desarrollo tecnológico concretos, la IA puede generar riesgos y menoscabar los intereses públicos y derechos fundamentales.

A la vista de estas circunstancias, sostiene el Reglamento IA en su considerando seis (6) que "Dadas las importantes repercusiones que la IA puede tener en la sociedad y la necesidad de generar confianza, es fundamental que la IA y su marco reglamentario se desarrollen de conformidad con los valores de la Unión consagrados en el artículo 2 del Tratado de la Unión Europea (TUE) (LA LEY 109/1994), los derechos y libertades fundamentales consagrados en los Tratados y, de conformidad con el artículo 6 del TUE, la Carta. Como requisito previo, la IA debe ser una tecnología centrada en el ser humano. Además, debe ser una herramienta para las personas y tener por objetivo último aumentar el bienestar humano."

Pues bien, a los efectos del presente trabajo y teniendo en cuenta las múltiples aproximaciones a la definición de sistema de IA, tomaremos la definición del Reglamento de IA (LA LEY 16665/2024) que destaca que se trata de "un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales."

La definición empleada por el Reglamento de IA (LA LEY 16665/2024) persigue "la armonización con los trabajos de las organizaciones internacionales que se ocupan de la IA, a fin de garantizar la seguridad jurídica y facilitar la convergencia a escala internacional y una amplia aceptación, al mismo tiempo que se prevé la flexibilidad necesaria para dar cabida a los rápidos avances tecnológicos en este ámbito."

Los sistemas de IA están diseñados para funcionar con distintos niveles de autonomía, lo que significa que pueden actuar con cierto grado de independencia con respecto a la actuación humana y tienen ciertas capacidades para funcionar sin intervención humana. La capacidad de adaptación que un sistema de IA podría mostrar tras su despliegue se refiere a las capacidades de autoaprendizaje que permiten al sistema cambiar mientras está en uso. Los sistemas de IA pueden utilizarse de manera independiente o como componentes de un producto, con independencia de si el sistema forma parte físicamente.

En el ámbito de la actividad empresarial y, muy en particular, la desarrollada por grandes sociedades mercantiles y cotizadas, lo cierto es que la aplicación de sistemas de IA ofrece numerosas ventajas y utilidades, permitiendo mejorar su eficiencia operativa, optimizar procesos y descubrir nuevas oportunidades de crecimiento. En concreto, algunas de las principales ventajas y aplicaciones podrían ser las siguientes:

  • Automatización de Procesos, ganando en velocidad de ejecución y en reducción de costes

La IA permite automatizar tareas repetitivas y administrativas, lo que reduce el costo operativo y minimiza errores humanos. Por otro lado, Con algoritmos que pueden ejecutar procesos a gran velocidad, las empresas pueden realizar operaciones de manera más rápida, especialmente en áreas como finanzas y contabilidad.

  • Análisis predictivo y toma de decisiones

Los algoritmos de IA analizan grandes cantidades de datos históricos y actuales para identificar patrones y tendencias, permitiendo decisiones basadas en datos y no en intuiciones. A su vez, los sistemas de IA pueden predecir tendencias del mercado, detectar señales de cambios en la demanda o fluctuaciones en el valor de las acciones.

  • Experiencia del cliente y personalización

Los chatbots y asistentes virtuales pueden responder a consultas de clientes de forma instantánea, mejorando la experiencia de usuario y reduciendo la carga de trabajo del servicio de atención al cliente. Mediante sistemas de IA es posible analizar las preferencias y el comportamiento de cada cliente para ofrecerles productos personalizados, lo cual aumenta la lealtad del cliente y las ventas.

  • Optimización de la cadena de suministro

La IA puede predecir la demanda con precisión, optimizando el inventario y reduciendo el costo de almacenamiento. Adicionalmente, mediante algoritmos de IA, se puede optimizar la logística y las rutas de entrega, reduciendo tiempos y costos.

  • Mejora de la seguridad y detección de fraudes

En sectores financieros, por ejemplo, la IA es muy útil para detectar patrones inusuales en tiempo real, lo cual permite identificar posibles fraudes. Por otro lado, los sistemas de IA pueden analizar constantemente amenazas en la red, protegiendo los datos y sistemas de la empresa.

  • Innovación y desarrollo de nuevos productos

En investigación y desarrollo, la IA ayuda a las empresas a crear y probar prototipos virtuales antes de invertir en su producción. Mediante el análisis de datos no estructurados, la IA puede identificar nuevas oportunidades de productos o servicios, permitiendo a las empresas mantenerse competitivas.

  • Cumplimiento normativo y análisis de riesgo

Los sistemas de IA pueden ser de gran utilidad en el apoyo a las áreas jurídicas y de cumplimiento, automatizando labores de supervisión y verificación del cumplimento de normativa de aplicación a las operaciones de la compañía. Adicionalmente, la IA ayuda a evaluar riesgos operativos de manera más precisa, ajustando estrategias en tiempo real.

Estas capacidades hacen que la IA sea una herramienta valiosa para la actividad empresarial desarrollada por grandes corporaciones y sociedades cotizadas en primer término, ya que no solo mejoran su eficiencia y competitividad, sino que también facilitan la adaptación al cambio tecnológico y de mercado, optimizando el rendimiento y maximizando los beneficios.

Pues bien, la capacidad transformadora de procesos y toma de decisiones que trae consigo de los sistemas de IA generativa ha supuesto la incorporación incipiente y progresiva de su uso en las grandes sociedades mercantiles y cotizadas en muy diferentes esferas y tipo de procesos, tanto para mejorar la eficiencia de actividades repetitivas y procesos como para la ayuda en la toma de decisiones de tipo estratégico. La contrapartida de este conjunto de indudables ventajas son los riesgos relevantes que el recurso a sistemas de IA lleva consigo, un conjunto de riesgos en los que nos detendremos brevemente a continuación, pero que conllevan el reto de su adecuada gestión corporativa.

II. Los riesgos asociados al uso de la inteligencia artificial, en particular, desde la perspectiva del Buen Gobierno Corporativo

Las ventajas de la IA son incuestionables al igual que sus múltiples aplicaciones, no sólo para la transformación de la operativa interna de las compañías, sino también para su utilización en ámbitos de estrategia empresarial, esto es, en desempeño de competencias cuyo ejercicio corresponde al órgano de administración y la ejecución a la alta dirección. Las posibilidades casi infinitas que se presentan llevan consigo la necesaria gestión de los riesgos asociados al empleo de sistemas de IA, más intensos a medida que la autonomía de los sistemas es mayor y las esferas de actuación en los que se emplean son más amplias y relevantes, unos riesgos relacionados con las alucinaciones, la transparencia, los sesgos o la potencial afectación de derechos humanos y fundamentales.

El uso de la inteligencia artificial en empresas y sociedades cotizadas plantea varias preocupaciones desde la perspectiva del buen gobierno corporativo, ya que introduce riesgos que pueden afectar tanto la transparencia, como a la ética de la organización y su responsabilidad. Algunos de los principales riesgos identificados, entre otros, son los siguientes:

  • Transparencia y "explicabilidad"

Muchos algoritmos de IA son complejos y funcionan como "cajas negras", lo que significa que puede ser difícil para accionistas y stakeholders en general entender cómo se toman ciertas decisiones. La falta de claridad sobre el funcionamiento de los algoritmos dificulta la transparencia y puede generar desconfianza.

  • Riesgos éticos y sesgos algorítmicos

Si los algoritmos de IA se entrenan con datos sesgados, pueden perpetuar o incluso amplificar estos sesgos, lo que plantea riesgos éticos y legales.

  • Privacidad y protección de datos

La IA suele requerir grandes volúmenes de datos, lo que aumenta los riesgos de privacidad y potenciales vulneraciones de la normativa de protección de datos de aplicación en cada caso. Adicionalmente, el uso de IA expone a las empresas a riesgos de ciberseguridad, ya que manejan y almacenan grandes cantidades de datos sensibles que pueden ser objetivo de ciberataques.

  • Riesgo de manipulación de información

Los algoritmos de IA pueden ser manipulados intencionadamente para alterar la información que se presenta a los accionistas, inversores y stakeholders en general y que la misma no sea veraz.

  • Impacto en el empleo

La automatización de procesos y actividades impulsada por IA puede llevar a la reducción de empleos, lo que suscitará riesgos y necesidades de adaptación en el ámbito de los recursos humanos de las grandes empresas y corporaciones que deberán ser gestionados.

A la vista de todo ello, el enfoque de riesgos asociados al empleo de la IA es la base del modelo implementado por el Reglamento de IA (LA LEY 16665/2024), de tal manera que se impone una regulación imperativa para los sistemas de IA de alto riesgo y se promueve para los restantes el cumplimiento de los requisitos previsto en el propio reglamento para la vigencia en Europa de un modelo de IA éticamente responsable y fiable.

De este modo, el Reglamento de IA (LA LEY 16665/2024) en su considerando ciento sesenta y cinco (165) sostiene que "Se debe alentar a los proveedores de sistemas de IA que no son de alto riesgo a crear códigos de conducta, entre los que se incluyen los correspondientes mecanismos de gobernanza, destinados a impulsar la aplicación voluntaria de la totalidad o parte de los requisitos aplicables a los sistemas de IA de alto riesgo, adaptados teniendo en cuenta la finalidad prevista de los sistemas y el menor riesgo planteado y teniendo en cuenta las soluciones técnicas disponibles y las mejores prácticas del sector, como las tarjetas de modelo y de datos Asimismo, se debe animar a los proveedores y, en su caso, a los responsables del despliegue de todos los sistemas de IA, ya sean o no de alto riesgo, y de los modelos de IA, a aplicar, con carácter voluntario, requisitos adicionales relativos, por ejemplo, a los elementos de las Directrices éticas de la Unión para una IA fiable, la sostenibilidad medioambiental, medidas de alfabetización en materia de IA, la inclusividad y la diversidad en el diseño y el desarrollo de los sistemas de IA, lo que incluye tener en cuenta a las personas vulnerables y la accesibilidad de las personas con discapacidad, la participación de las partes interesadas, con la participación, según proceda, de las partes interesadas pertinentes, como las organizaciones empresariales y de la sociedad civil, el mundo académico, los organismos de investigación, los sindicatos y las organizaciones de protección de los consumidores, en el diseño y el desarrollo de los sistemas de IA, y la diversidad de los equipos de desarrollo, también por lo que respecta a la paridad de género."

Se apoya, por lo tanto, el control de riesgos de los sistemas de IA generales, es decir, los que no son clasificados de alto riesgo y entre los que se encuentran la gran mayoría de los sistemas de IA susceptibles de aplicación en el ámbito empresarial (salvo, por ejemplo, los relativos a las relaciones laborales y recursos humanos), en códigos de conducta voluntarios que se inspiren en los requisitos del Reglamento de IA (LA LEY 16665/2024) para sistemas de IA de alto riesgo. Dichos códigos de conducta voluntarios deben basarse en objetivos claros e indicadores clave del rendimiento que permitan medir de forma precisa la consecución de dichos objetivos. En su desarrollo debe contarse con la participación de todas las partes interesadas, como las organizaciones empresariales y de la sociedad civil, el mundo académico, los organismos de investigación, los sindicatos y las organizaciones de protección de los consumidores. En este sentido, el Reglamento prevé que la propia Comisión podría formular iniciativas, también de carácter sectorial, encaminadas a facilitar la disminución de los obstáculos técnicos que dificultan el intercambio transfronterizo de datos para el desarrollo de la IA.

Así las cosas, la adecuada identificación y gestión de esos riesgos propios de los sistemas de IA de tipo general, a cuya utilización por las grandes sociedades cotizadas nos referimos, constituye un reto para el Consejo de Administración como órgano superior de supervisión y control de todos los riesgos corporativos. De este modo, los modelos de Buen Gobierno Corporativo y Gobernanza deben adaptar su contenido, principios y estructura a dicho objetivo.

Tan complejo cometido se aborda mediante la aprobación de políticas y protocolos de gestión de IA por parte de los Consejos de Administración que incluyen principios básicos de tipo material y elementos formales de control y de gestión del sistema, todo ello con el propósito de garantizar una IA transparente, confiable y ética.

Dichos protocolos y políticas recogen, más allá de procesos de control y órganos responsables de supervisión, un conjunto de principios materiales que persiguen garantizar una IA ética, transparente y confiable, basándose en los principios incluidos e la Recomendación UNESCO, la Recomendación OCDE o en las conclusiones del grupo de trabajo de expertos independientes de la Comisión Europea.

En este sentido, son la base de esta estructura ética de protocolos y códigos las Directrices éticas para una IA fiable, de 2019, elaboradas por el Grupo independiente de expertos de alto nivel sobre IA creado por la Comisión. En dichas directrices, el Grupo independiente de expertos de alto nivel sobre IA desarrolló siete principios éticos no vinculantes para la IA que tienen por objeto contribuir a garantizar la fiabilidad y el fundamento ético de la IA.

Los siete principios éticos son la acción y supervisión humanas, la solidez técnica y seguridad, la gestión de la privacidad y de los datos, la transparencia, la diversidad, la no discriminación y equidad, el bienestar social y ambiental y, finalmente, la rendición de cuentas.

Estas directrices o principios contribuyen al diseño de una IA coherente, fiable y centrada en el ser humano, en consonancia con la Carta de Derechos Humanos de la CE y con los valores en los que se fundamenta la Unión.

Por su parte la Recomendación UNESCO sobre la Ética de la Inteligencia Artificial de 23 de noviembre de 2021 hace referencia a un conjunto de principios que son también la guía y orientación de las políticas y protocolos de Buen Gobierno de la IA. Son un total de diez principios que garantizan la transparencia, fiabilidad y ética de la IA, en concreto, la proporcionalidad e inocuidad, la seguridad y protección, la equidad y no discriminación, la sostenibilidad, el derecho a la intimidad y protección de datos, la transparencia, la supervisión y decisión humanas, la sensibilización y educación, la responsabilidad y rendición de cuentas y, finalmente, la gobernanza y colaboración adaptativas y de múltiples partes interesadas.

Por otro lado, especial relevancia para el trabajo que nos ocupa, es el ámbito de actuación segundo de la Recomendación UNESCO relativo al Buen gobierno y los sistemas de IA.

En el desarrollo de dicho ámbito de actuación se destaca que "Los Estados Miembros deberían velar por que los mecanismos de gobernanza de la IA sean inclusivos, transparentes, multidisciplinarios y multilaterales (lo que incluye la posibilidad de atenuar y reparar daños más allá de las fronteras) y cuenten con múltiples partes interesadas. En particular, la gobernanza debería incluir aspectos de previsión y dispositivos eficaces de protección, seguimiento de los efectos, aplicación y reparación.

Los Estados Miembros deberían alentar a las entidades públicas, las empresas del sector privado y las organizaciones de la sociedad civil a que incorporen a diferentes partes interesadas a su gobernanza en materia de IA y consideren la posibilidad de añadir una función de responsable independiente de la ética de la IA o algún otro mecanismo para supervisar las actividades relacionadas con la evaluación del impacto ético, las auditorías y el seguimiento continuo, así como para garantizar la orientación ética de los sistemas de IA."

En suma, parecen claros los riesgos que la incorporación de los sistemas de IA al funcionamiento de las empresas, en particular, las grandes corporaciones traen consigo. Unos riesgos que deben ser conocidos, transparentes y adecuadamente gestionados y supervisados, labor en la que el Consejo de Administración, a través del Buen Gobierno Corporativo, sus políticas, códigos y protocolos, debe cumplir una función esencial.

III. La inteligencia artificial y su impacto en el funcionamiento de los Consejos de Administración en las sociedades mercantiles, en particular, en las sociedades cotizadas

A estas alturas no parece ofrecer dudas la capacidad transformadora de la IA generativa de los modelos de toma de decisión, no sólo ordinarias, sino también estratégicas en el desarrollo de la actividad empresarial y en las grandes corporaciones y sociedades cotizadas como principal exponente de la incorporación de la IA a las sociedades mercantiles.

Los Consejos de Administración supervisan organizaciones que, de forma cada vez más generalizada, comienzan a incorporar sistemas y modelos de IA para la realización de labores mecánicas u ordinarias, pero también para la toma de decisiones de tipo estratégico en el ámbito de su negocio, o que incluso se relacionan con prestadores de servicios que hacen uso de información propia de la compañía en el desarrollo de sus sistemas o modelos de IA.

Ello implica que deban afrontar importantes retos, tanto desde la perspectiva de la adecuada monitorización y supervisión de los riesgos corporativos asociados a este proceso, como en lo que a la propia incorporación de dichos sistemas de IA al funcionamiento ordinario y estratégico del propio Consejo de Administración.

En este escenario, el Consejo de Administración como máximo órgano de decisión estratégica y de supervisión de los riesgos corporativos ve afectada de manera esencial y trascendental no sólo su funcionamiento ordinario, sino también su propia composición, competencias y deberes.

El Reglamento de IA (LA LEY 16665/2024) consciente de este contexto general y a partir de un esquema normativo apoyado en la idea central de supervisión de los riesgos de los sistemas de IA, remite el control de los sistemas de IA de tipo general, sobre la base de la transparencia, a la autorregulación, a través de códigos de buena conducta o códigos de buenas prácticas, basada en los principios que el propio Reglamento impone para los sistemas de alto riesgo. Una autorregulación en cuya incorporación a la actividad de la empresa va a tener un papel central y esencial el Consejo de Administración.

1. Transformación de los Consejos de Administración de sociedades cotizadas e inteligencia artificial

La realidad de la actividad de las grandes corporaciones y sociedades cotizadas acredita que la fuerza transformadora de la IA alcanza de lleno a sus Consejos de Administración. Esa transformación se extiende al papel del propio consejero en el seno del Consejo de Administración, al adecuado cumplimiento de sus deberes como administrador social, en particular, su deber de diligencia y a la formación y competencias del consejero para el ejercicio de sus funciones de consejero en su día a día.

En este contexto general, son dos los posibles roles que la IA puede jugar en su interrelación con el Consejo de Administración, en concreto, la IA como apoyo a la labor y competencias del Consejo, y la IA como sustituto o alternativa al consejero persona física. Ambos escenarios, plantean consecuencias e implicaciones jurídicas de muy diverso alcance e índole que en las siguientes líneas apuntamos. En cualquiera de dichas alternativas, resulta esencial incorporar tanto la formación básica transversal en IA de los consejeros, como a la matriz de competencias del consejo en su conjunto, el conocimiento y competencia profesional de los consejeros en IA.

A estas cuestiones relativas al Buen Gobierno de la IA como instrumento de control y de gestión de los riesgos inherentes a los sistemas de IA y a su tratamiento en el Reglamento de IA (LA LEY 16665/2024) nos referiremos en epígrafes posteriores.

2. Inteligencia artificial como apoyo a la labor del Consejo de Administración y sus consejeros

La primera alternativa es plantear los sistemas de IA como un instrumento de apoyo a la labor del Consejo de Administración en su función de dirección estratégica de la compañía y supervisión de la misma y de su equipo directivo. En buena lógica, nos referimos a sistemas de IA generativa que pueda facilitar información o respuestas relativas a decisiones de negocio o de tipo estratégico y no, simplemente, sistemas de IA destinados a la agilización de operaciones mecánicas de trabajo rutinario o de eficiencia y utilidad personal. Estamos ante supuestos de asistencia a Consejo por sistemas de IA, o incluso el impulso o aumento de las capacidades de dicho Consejo, una IA como instrumento de apoyo (AI Asisted board) o de potenciación (IA Augmented board).

Esta opción es la aproximación generalizada por parte de las grandes corporaciones en la actualidad a las posibilidades que brindan los sistemas de IA. Se dota a los Consejos de Administración de sistemas de IA que permiten agilizar sus labores y funcionamiento ordinario, pero también se plantea la utilización de dichos sistemas como apoyo a la toma de decisiones estratégicas o de negocio, bien directamente por el propio Consejo o bien por los propios directores o ejecutivos del negocio de la compañía que eleva las correspondientes propuestas al Consejo.

En este sentido, los sistemas de IA pueden ser considerados como información, incluso necesaria, para la toma de decisiones por parte del Consejo de Administración o, bien, como un instrumento o protocolo para la toma de decisiones por parte de este. Sin perjuicio de los matices de ambas consideraciones, lo cierto es que el responsable de la decisión es siempre el Consejo integrado por consejeros personas físicas, de modo que no sufre alteración alguna el centro de imputación jurídica de la decisión ni la atribución de responsabilidades por ello. En estos casos, el Consejo de Administración debe realizar una valoración sobre el resultado o propuesta de decisión presentada por el sistema de IA, de tal forma que la decisión adoptada es en todo caso una decisión del Consejo y sobre el mismo recae su responsabilidad.

2.1. Los sistemas o modelos de IA como información del consejero para el desarrollo de su labor como administrador social

La consideración de los sistemas de IA como elementos de apoyo a la actividad del consejero permite, en primer término, calificar dichos sistemas y los resultados de las consultas hechas a los mismos como información para el Consejo. Una información que puede llegar a ser considerada, en función de las circunstancias concurrentes y del contexto, como información necesaria.

Cierto es que, desde un punto de vista técnico, el apoyo de un sistema de IA generativa puede suponer mucho más que la aportación de un conjunto de información más o menos fiable para la toma de una decisión, sino que la verdadera innovación y capacidad transformadora de la IA reside en que la "salida" de la consulta va a consistir en una propuesta de decisión, esto es, una decisión en sí misma. Este extremo es el que puede ser susceptible de un análisis jurídico más sosegado, dado que en realidad, el propio funcionamiento del sistema de IA va a suponer la sustitución material del centro de decisión, aun cuando a efectos jurídicos el centro de imputación de la misma sea el consejero.

Recordemos, en este sentido, que el artículo 225.3 de la Ley de Sociedades de Capital (LA LEY 14030/2010) en relación con el contenido y alcance del deber de diligencia establece que el en desempeño de sus funciones el administrador "tiene el deber de exigir y el derecho de recabar de la sociedad la información adecuada y necesaria que le sirva para el cumplimiento de sus obligaciones."

Por ello, en la medida en la que la información que facilita el sistema de IA pueda ser considerada como necesaria y adecuada para el cumplimiento de las obligaciones del consejero, se ve directamente afectado el deber de diligencia de este, en cuanto que la solicitud de dicho tipo de información constituye un deber y un derecho del consejero.

2.2. Inteligencia artificial como protocolo en la toma de decisiones: decision-making (procesos de formación de decisión)

La segunda posibilidad de enfocar la relación de los sistemas de IA con la actuación y actividad de los Consejos de Administración es entender que el recurso a los mismos forma parte de un proceso de toma de decisiones adecuado, atendiendo a la naturaleza y verdadero funcionamiento de los sistemas de IA que exceden de la mera aportación de información y constituyen propuestas de decisión.

Como hemos avanzado, la salida o resultados de una consulta a un sistema de IA, no puede ser calificado simplemente como información, dado que lo que se plantean son respuestas concretas, en definitiva, una propuesta de respuesta que debe ser supervisada y confirmada, en su caso.

Así las cosas, la ayuda proporcionada por el sistema de IA al Consejo de Administración puede ser considerada algo más que información, incluso necesaria y adecuada, sino una propuesta de decisión que pueda ser valorada como una posible alternativa en el marco de un protocolo o proceso de toma de decisión estratégica por parte del Consejo de Administración.

En definitiva, la propuesta de decisión planteada por un sistema de IA puede ser contemplada como un hito necesario dentro de un proceso de toma de decisión estratégica (decision-making). En buena lógica, la propuesta planteada por el sistema de IA debe ser supervisada y, en su caso, confirmada por el consejero o por el Consejo de Administración en su conjunto que se erige, entonces, como centro de imputación jurídica de dicha decisión.

2.3. Incidencia de la Inteligencia artificial en cualquiera de sus dos alternativas a los deberes de los administradores sociales: el deber de diligencia y la inteligencia artificial

Más allá de la calificación del apoyo de la IA al Consejo de Administración, como información, o como un hito de un proceso de toma de decisión, lo cierto es que en ambos casos el deber de diligencia del administrador social se ve implicado, tanto atendiendo al concepto y alcance general de dicho deber, como en la aplicación de la businnes judgement rule o la protección de la discrecionalidad empresarial.

Lo cierto es que la progresiva consolidación del empleo de sistemas y herramientas de IA que pudieran asistir a los Consejos de Administración en su labor de toma de decisiones de tipo estratégico y de supervisión de la alta dirección de la compañía, pudiera plantear un escenario que vaya desde la consideración de su uso como un apoyo para mejorar el funcionamiento del Consejo, a una herramienta necesaria e incluso, llegado el caso exigible, para la adecuada toma de decisiones para determinadas compañías de gran tamaño e intensidad de los riesgos a gestionar.

Si pudiera llegar a concluirse, en función de las concretas circunstancias concurrentes, que la utilización de estas herramientas y sistemas es no sólo una opción de mejora, sino una medida adoptada de forma generalizada por el sector concreto de la compañía que se trate, lo cierto es que su omisión o falta de utilización podría implicar la afectación del deber de diligencia del administrador social, o incluso entender que la protección de la regla de la discrecionalidad empresarial no se extiende a la decisiones de tipo estratégico que no se hubieran apoyado en sistemas de IA, ya como información suficiente, ya como un procedimiento de toma de decisión adecuado que se habría omitido.

En palabras más sucintas, el apoyo brindado por la IA puede evolucionar en función de su consolidación e integración en el proceso de toma de decisiones de tipo estratégico en compañías cotizadas y grandes corporaciones de un elemento de reforzamiento de la diligencia empresarial, hasta un elemento constitutivo de un protocolo adecuado de toma de decisiones y de un nivel de información suficiente que, en caso de no ser adoptado por la compañía, pudiera afectar a la diligencia de sus administradores sociales o, incluso, a la aplicación de la business judgment rule a un caso concreto.

En definitiva, el empleo de sistemas de IA como sistema de apoyo al Consejo de Administración de una gran corporación o sociedad cotizadas podría afectar a la diligencia del administrador social. El grado de implicación y de exigencias concretas que de ello se desprenden dependerá de la intensidad de la incorporación de dichos sistemas a la vida corporativa y, en todo caso, obligará a un examen dinámico, dependiente de las propias circunstancias del sector y en una línea que probablemente evolucione de ser considerado como un elemento que refuerza la diligencia de los Consejos, a un hito necesario para acreditar un procedimiento de toma de decisiones adecuado o información suficiente para la toma de decisión.

2.4. La afectación de la IA a las competencias y aptitudes del consejo: composición y formación del Consejo orientada a la IA

La profundidad de la transformación y los cambios que se desprenden de la incorporación de los sistemas de inteligencia artificial tanto a la actividad de las grandes empresas en el desarrollo de su negocio, como al funcionamiento del propio Consejo de Administración impacta necesariamente en la matriz de competencias del propio Consejo y, en consecuencia, en su composición y en la formación de sus miembros. Un adecuado y suficiente conocimiento del funcionamiento y riesgos de los sistemas de IA resulta indispensable para que el Consejo de Administración pueda desarrollar su labor de supervisión y dirección estratégica de la compañía.

Lo anterior implica, en primer lugar, revisar la composición de los Consejos de Administración adaptando sus matrices de competencias para la selección de sus integrantes. El Consejo de Administración deber incorporar consejeros que tengan una formación específica y suficiente en el ámbito de la IA, de tal forma que aporten su conocimiento a un órgano de administración que ha de supervisar los riesgos que la utilización de la IA lleva consigo.

Como hemos avanzado, es probable que la IA generativa tenga un impacto en todos los aspectos de las operaciones de una empresa: riesgo, remuneración, talento, ciberseguridad, finanzas y estrategia, por ejemplo. Por lo tanto, podría decirse que la experiencia en IA debe ser generalizada para que el Consejo de Administración en pleno y todos sus comités puedan considerar adecuadamente sus implicaciones.

Como expondremos más adelante, esta necesidad a nivel organizativo se está abordando en una primera fase con la implementación de estructuras corporativas internas de gestión y supervisión del riesgo de la IA que supone la creación de direcciones específicas de IA u oficinas técnicas de IA, con un directivo responsable que reporte directamente al Consejo de Administración, el conocido como Chief Artificial Intelligence Officer o CAIO.

En segundo término, el Consejo de Administración debe ser formado, de tal forma que se permita al menos un conocimiento general sobre el funcionamiento y riesgos de la IA generativa. Las sesiones de capacitación y formación impartidas por los propios expertos de la empresa y por expertos externos pueden brindar a los miembros del Consejo una comprensión de cómo funciona la IA generativa, cómo podría aplicarse en la empresa, el valor potencial en juego, los riesgos y la evolución de la tecnología.

La fuerza transformadora de la IA sobre el modelo de negocio de muchas grandes empresas y corporaciones y la afectación a sus procesos y a sus riesgos impone una especial adaptación de los Consejos de Administración para poder desarrollar adecuadamente sus competencias. Este objetivo no puede ser satisfecho con una mera formación de los consejeros, sino que requiere de una incidencia mayor en la composición y apoyo permanente al Consejo para que pueda desarrollar adecuadamente sus competencias.

Parece claro que el proceso de transformación corporativa y la necesaria formación para ello ha de extenderse a todos los niveles de la compañía, pero el Consejo como órgano de supervisión y de gestión debe liderar este proceso y prepararse para ello adaptando y actualizando sus aptitudes y competencias.

3. Inteligencia artificial como consejero o administrador social: el ciber-consejero o robodirector

Frente a la posibilidad más real y coherente con la realidad económica, técnica, social e incluso ética actual, existe la alternativa de atribuir a un sistema de IA la condición de consejero, de tal manera que sustituya a la persona física. Estamos ante los supuestos de roboboard, con la presencia de ciberdirectors o robodirectors en su seno. Se trataría de reconocer personalidad jurídica a un sistema de IA autónomo, de modo que fueran al mismo atribuidas las consecuencias de sus decisiones, como centro de imputación jurídica.

Este planteamiento choca con principios básicos de los modelos internacionales y comunitarios de la ética de la IA en los que el principio de supervisión y responsabilidad humana de los sistemas de IA se constituyen como elementos esenciales del modelo (véase el Reglamento de IA (LA LEY 16665/2024), los principios OCDE o de la UNESCO).

En el caso de que se procediese a reconocer la personalidad jurídica del algoritmo, esto es, de la IA, la posibilidad de reconocimiento del ciber-consejero en los Consejos de Administración parecería posible en el caso de los ordenamientos jurídicos, como el español, que permiten la presencia de administradores personas jurídicas, cuya actuación debe concretarse materialmente a través de un representante persona física. Parece que los problemas, sin embargo, procederían de la necesaria supervisión humana del algoritmo para que sea una IA ética y del régimen imputación jurídica y de responsabilidad aplicable a las actuaciones del algoritmo personificado.

La literatura jurídica que ha defendido el avance hacia el reconocimiento de la figura del ciber-director sostiene su planteamiento en la mayor eficiencia de la IA en el desarrollo de algunas funciones propias de consejeros, en particular, en determinados sectores en los que sea necesario procesar grandes volúmenes de información para los propios consejeros. En estos casos, la capacidad de análisis y respuesta rápida de la IA es muy superior al de la persona física, procesando información de una forma más eficiente y carente de sesgos. En estos consejos que integran ciber-director la distribución funcional entre consejeros llevaría a los consejeros persona física a una función de supervisión del ciber consejero, incluso con la posibilidad de participar en la elección de los algoritmos personificados, limitando su participación fundamentalmente en las decisiones de tipo estratégico.

Excede del objetivo del presente trabajo un análisis del estado de la cuestión de la problemática del ciber consejero o los modelo de IA autónoma, en todo caso, parece que en el contexto jurídico, técnico y social actual y el grado de implementación de los sistemas de IA, así como las adaptación de las empresas y grandes corporaciones a la transformación que dichos sistemas implican, permite afirmar que no existe un escenario de madurez suficiente para dar pasos que van a multiplicar, sin duda, los riesgos jurídicos asociados a la IA. Estamos, en definitiva, en un escenario de clara consolidación de los sistemas de IA como apoyo o ayuda a la labor de los Consejos de Administración, tanto en su operativa diaria, como en decisiones de tipo estratégico, así como en su incorporación a toda la estructura corporativa y de negocio de las empresas, necesitada de supervisión, pero alejado de un modelo de ciberconsejo.

IV. El Buen Gobierno Corporativo y su papel en la gestión de la inteligencia artificial y sus riesgos por parte de los Consejos de Administración: los códigos de conducta, políticas y protocolos de uso de inteligencia artificial

El Buen Gobierno Corporativo debe asegurar que el uso de la IA en la empresa esté alineado con sus principios éticos y de responsabilidad, promoviendo una utilización de la IA que sea transparente, justa y supervisada para minimizar los riesgos y mantener la confianza de los accionistas y demás stakeholders.

El Buen gobierno Corporativo, con este propósito, debe preocuparse por la adecuada gestión de los riesgos derivados de la incorporación de la IA no sólo a la actividad operativa de la empresa, sino, como hemos visto, a la ayuda que a través de la propia IA se presta al Consejo de Administración

La incorporación de la IA a la vida de las grandes corporaciones mercantiles cotizadas primero y, posteriormente, a las sociedades mercantiles en general, ya sea como instrumento para la mejora de la eficiencia de los procesos internos ordinarios, o para el impulso de la toma de decisiones de tipo estratégico o de negocio implica, en el marco de la aplicación general del Reglamento de IA (LA LEY 16665/2024), asumir por parte de dichas entidades la gestión de un nuevo riesgo especialmente cualificado. La utilización de estos sistemas de IA de carácter general o específico pero de riesgo limitado, impone obligaciones de transparencia e información a terceros de su uso y en el marco de la gestión interna de los riesgos corporativos requiere la adopción, sobre la base de los códigos de buena conducta voluntarios, de un sistema de control de riesgos de la IA que garantice la transparencia, fiabilidad, carácter ético y la supervisión humana.

Estos códigos de buena conducta o prácticas y las políticas específicas de gestión de riesgos de IA deberían ser aprobadas por el Consejo de Administración en su función general de supervisión y establecimiento de procedimientos de control de riesgos de la compañía en aplicación del artículo 225.2 de la LSC relativo al contenido del deber de diligencia del administrador social. Dicho deber alcanza, desde luego, a la aprobación incorporación de estas políticas que garantice a nivel del Consejo de Administración una adecuada gestión y supervisión de los riesgos derivados del uso de la IA por parte de la compañía.

En el caso de que se haga uso de sistemas de IA de alto riesgo, será necesario el cumplimiento de los requisitos establecidos en el Reglamento de IA (LA LEY 16665/2024), en sus instrumentos futuros de desarrollo y, en todo caso, en las futuras normas armonizadas, unos requisitos que serán controlados a través del correspondiente proceso de evaluación de la conformidad.

Los códigos de buenas prácticas o conducta en su elaboración deben integrar a todas las partes interesadas e incluir, junto a un conjunto de principios materiales esenciales que garantizan la transparencia y el carácter ético del sistema, protocolos de toma de decisión que garanticen la supervisión y responsabilidad jurídica última humana, de conformidad con las previsiones de la Recomendación de la OCDE en su ámbito de actuación segundo relativo a la gobernanza. En este sentido, tal y como se desprende del contenido de la Recomendación OCDE en dicho ámbito de actuación, todo modelo de gobernanza debe velar por que siempre sea posible atribuir la responsabilidad ética y jurídica, en cualquier etapa del ciclo de vida de los sistemas de IA, así como en los casos de recurso relacionados con sistemas de IA, a personas físicas o a entidades jurídicas existentes.

Pues bien, la práctica reciente de las grandes corporaciones y sociedades cotizadas se ha concretado en la aprobación por parte de sus Consejos de Administración de una serie de políticas corporativas de gestión de sistemas de IA que se inspiran en los principios éticos derivados de las recomendaciones y documentos nacionales e internacionales expuestos, incluido el reciente Reglamento de IA (LA LEY 16665/2024), y en un sistema gestión y de control o supervisión humana de los riesgos anudados al uso de la IA, concretando los principios de transparencia, fiabilidad, carácter ético y supervisión humana.

Las políticas persiguen garantizar la satisfacción de los referidos principios éticos y, junto con ello, implementar un modelo de gestión que incorpore los siguientes elementos:

  • El establecimiento de un modelo de evaluación del impacto ético de cada caso de uso concreto dentro de la compañía, de modo que todo proyecto que implique el uso de datos mediante algoritmos de IA deberá realizar un análisis previo que incluya lo siguiente:
    • (i) La calidad de las fuentes de los datos utilizados como entrada del algoritmo de tal forma se garantice la representatividad, precisión, corrección, especificidad y pertinencia de dichos datos de entrada, da tal forma que se eviten sesgos.
    • (ii) El tratamiento algorítmico seguro y ético de los datos con el fin de evitar discriminaciones y exclusiones.
    • (iii) La protección de datos de carácter personal con el cumplimiento estricto de la legislación vigente.
    • (iv) Garantizar exclusión de sistemas de IA de los prohibidos al amparo del Reglamento de IA (LA LEY 16665/2024).
  • La previsión de sistemas o mecanismos concretos de supervisión humana que permitan a una persona o personas con autoridad y responsabilidad en la sociedad, verificar y, en su caso, tomar el control de las decisiones producidas por un sistema de IA en cualquier fase del proceso de toma de decisiones, incluyendo la capacidad de revertir las decisiones adoptadas de modo automático.
  • Una revisión y actualización continua del modelo de gestión de la IA para adecuarlo en todo momento al contexto y circunstancias concretas de la Sociedad, así como a la legislación y a las códigos de conducta, recomendaciones y mejores prácticas en la materia.
  • Protocolos de actuación rápida y reacción frente a los incidentes que se produzcan tanto en la gestión del sistema como en los procedimientos operativos que dependen del mismo.
  • El desarrollo de la normativa interna sobre uso de sistemas de IA que desarrollen y concreten los principios y requerimientos establecidos la política de la compañía.

Estos sistemas de gestión garantizan que los modelos de IA se desarrollan, implementan y utilizan de forma responsable, transparente y fiable, incluyendo elementos clave como, los inventarios de los sistemas de IA (o casos de uso), un código ético de IA, un mapa de riesgos del sistema de IA, controles de gestión de riesgos, y la gestión de toda la cadena de valor de la IA (en este sentido resulta útil el modelo derivado de la norma ISO/IEC 42001 -Sistema de gestión de la IA).

Desde el punto de vista organizativo, y en aras a garantiza la adecuada supervisión humana, estas políticas contemplan una oficina de IA o Comité de IA, responsable de la supervisión de los riesgos de IA que sin perjuicio de su integración en el marco genera del sistema de cumplimiento normativo, suele reportar directamente al Consejo de Administración, a través de la Comisión de Auditoría y Cumplimiento que será el órgano responsable de la definición, orientación, supervisión y control de la estrategia y política de Inteligencia Artificial, así como, de proponer a los responsables internos del modelo de gestión en la operativa de la compañía. Junto con esta oficina o Comité de IA, se empieza a incorporar la figura de un director de IA o Chief AI Officer (CAIO) como figura responsable de la gestión de la política, el reporte al consejo y el apoyo y formación al mismo en el desarrollo de sus funciones.

En todo caso, el concreto sistema de supervisión, siempre coronada por el Consejo de Administración a través de la Comisión de Auditoria y Riesgos o Cumplimiento, dependerá de la estructura interna de gestión de riesgos, pero en todo caso por la trasversalidad y magnitud de los propios de IA requiere una estructura específica y diferenciada de otras internas de supervisión.

En el ámbito de las iniciativas y propuestas de Buen Gobierno Corporativo e IA es también significativo el conjunto de solicitudes planteadas por accionistas al Consejo de Administración con ocasión de la celebración de la Junta General Ordinaria en grandes sociedades cotizadas americanas en el ejercicio 2024 y su evolución frente al ejercicio 2023. Dicha evolución se caracteriza por el mayor número de solicitudes dirigidas al Consejo de Administración en materia de IA presentadas en las Junta Generales de 2024.

Tanto en 2023 como en 2024 las propuestas de accionistas se concentraban en solicitudes de información o informes de transparencia y en propuestas de mejora de la supervisión.

Pues bien, un repaso rápido a las solicitudes de información, iniciativas o informes de transparencia solicitados por accionistas permite identificar las siguientes:

  • Informe sobre el uso de la IA y sus directrices éticas: estas propuestas pedían que las empresas proporcionaran información sobre su uso de la IA y que divulgaran cualquier directriz ética adoptada en relación con el uso de la IA. En ciertos casos, estas propuestas pedían que las empresas aclararan el papel del Consejo de Administración en la supervisión del uso de la IA.
  • Informe sobre riesgos para los derechos humanos derivados de la IA: estas propuestas pedían informes de terceros independientes sobre los riesgos que el uso de la IA plantea para los derechos humanos, con especial atención en la tecnología de reconocimiento facial, que puede afectar la privacidad de las personas, y las aplicaciones de publicidad dirigida, debido a su potencial de exacerbar la discriminación contra determinadas categorías de la población.
  • Informe sobre desinformación y riesgos de desinformación: los accionistas solicitaron informes sobre los riesgos para la empresa y sus stakeholders de la desinformación generada por IA. Los accionistas también pidieron que estos informes se extiendan a las medidas tomadas para mitigar los daños (potenciales).
  • Informe sobre las implicaciones sociales para la plantilla: esta propuesta, presentada en Chipotle, solicitaba un informe sobre los principios que la empresa utilizará para abordar y medir el impacto en la plantilla de la compañía de las tecnologías avanzadas, incluidas la IA y la automatización.
  • Informe sobre la supervisión del Consejo de Administración: una propuesta, presentada en Amazon, pedía una evaluación independiente del papel del Comité de Auditoría y Cumplimiento para garantizar una supervisión efectiva de los riesgos materiales para las partes interesadas de las operaciones de la empresa, incluso en relación con su uso de IA.
  • Informe sobre sistemas algorítmicos de IA utilizados: esta propuesta, presentada en Alphabet, solicitaba información adicional sobre sistemas algorítmicos, como cómo se utilizan para orientar y entregar anuncios, tasas de error y los impactos en el habla y las experiencias de los usuarios.

En 2024, se plantearon también iniciativas solicitando la delimitación de nuevas competencias y órganos en el seno del Consejo de Administración destinadas a una mejor supervisión de los riesgos derivados de la IA. En concreto:

  • En Amazon se plantea por accionistas la creación de una nueva Comisión del Consejo con competencia en la supervisión de los riesgos sobre los derechos humanos derivados del uso de la IA.
  • En Alphabet se solicita modificar el estatuto del Comisión de Auditoría y Cumplimiento para establecer con claridad que es la Comisión competente para la supervisión de las actividades de IA.

La presentación de este tipo de propuestas en las Juntas Generales de 2024 se vio incrementada respecto de 2023, tanto en número como en variedad de las mismas. No obstante, en el ámbito de las Big Tech, este tipo de propuestas se comenzaron a plantear antes de 2023. Es el caso de Amazon, cuyos accionistas solicitan por primera vez que se informara sobre los riesgos para los derechos humanos asociados con su tecnología de reconocimiento facial en 2019. Por su parte, en Meta se solicita en 2022 por parte de un grupo de accionistas que informara sobre los impactos de sus políticas y prácticas de publicidad dirigida y, finalmente, en Alphabet se plantea una solicitud de información sobre sus sistemas algorítmicos ya en 2022.

V. Algunas conclusiones sucintas

La IA ha llegado para quedarse y para impulsar una transformación profunda de los modelos empresariales y productivos a todos los niveles, desde actividades simples y rutinarias a grandes decisiones estratégicas. La progresiva incorporación de los sistemas de IA a las grandes corporaciones y sus riesgos inherentes ha impulsado la preocupación del Buen Gobierno Corporativo sobre la materia. El Consejo de Administración, por un lado, ocupa una posición esencial en la gestión y supervisión de los riesgos derivados de la utilización de la IA en el seno de la compañía y, por otro, puede ver directamente afectado su funcionamiento con ocasión de la utilización de sistemas de IA por el propio Consejo de Administración. Desde la perspectiva de la gestión y supervisión de los riesgos derivados del empleo por la compañía de sistemas de IA en el desarrollo de su negocio, el Consejo de Administración debe aprobar las políticas correspondientes que permitan garantizar el empleo de una IA ética, transparente y confiable, con un adecuado modelo de gestión de sus riesgos, todo ello en el marco del desarrollo del deber de diligencia del administrador social, al establecer "medidas precisas" para el control de la sociedad.

En cuanto a la afectación de los sistemas de IA al propio Consejo de Administración, los sistemas de IA se plantean en el contexto actual como un apoyo a la función de aquél. Un apoyo que puede ser considerado como una información suficiente al Consejo o, incluso, atendida la naturaleza de la actuación de los sistemas de IA, como un procedimiento adecuado de toma de decisiones. No parece, sin embargo, que el grado de implantación actual de estos sistemas de IA imponga al recurso a los mismos como un contenido esencial del deber de diligencia del administrador social, dado que puede existir información suficiente o procedimiento adecuado de toma de decisión sin la necesaria participación de un sistema de IA en dicho proceso.

Sin perjuicio de lo anterior, en la medida en la que la utilización de sistemas de IA por parte de los Consejos de Administración se generalizase o extendiese, las implicaciones del deber de diligencia en caso de su no utilización por parte de un Consejo de Administración en relación con la business judment rule podrían ser muy distintas, al no existir información suficiente o procedimiento adecuado para la toma de la decisión estratégica. En todo caso, resulta necesario un análisis dinámico y sectorial de la situación pare ver en qué punto se sitúa el estándar de diligencia objetivo y habitual, en un contexto como el actual de constante cambio y evolución.

En cualquier caso, este escenario aconseja adaptar las competencias de los Consejos de Administración a través de su matriz de competencias, incluyendo las específicas en materia de IA y, en consecuencia, promover la integración en los Consejos de consejeros con conocimientos específicos en la materia. En todo caso, tanto los programas de formación específica de Consejos de Administración en IA, como la previsión de órganos internos de apoyo recurrente al Consejo de Administración se plantean como medias necesarias y convenientes a corto plazo.

Finalmente, a la vista del contexto económico y social actual, no parece próxima ni factible a corto o medio plazo la incorporación de la figura del ciber-consejero o robodirector, mediante el reconocimiento de personalidad jurídica al algoritmo de la IA y su integración como miembro persona jurídica del Consejo de Administración. En la medida en la que se regule, como en nuestro ordenamiento jurídico, la alternativa de consejeros persona jurídica parece técnicamente posible su reconocimiento, pero resultaría necesario precisar y concretar tanto el régimen de control de riesgos, como el de supervisión humana y, finalmente, la atribución de responsabilidad derivada de la actuación del algoritmo personificado.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll