Cargando. Por favor, espere

Portada

Carlos B Fernández. La inteligencia artificial generativa está siendo cada vez más utilizada por las empresas. Pero su uso seguro requiere de un conocimiento adecuado de los usuarios sobre sus capacidades reales y de una política de uso por parte de las organizaciones, que evite los riesgos derivados de su uso.

Precisamente a esta temática se dedicó la jornada sobre oportunidades y riesgos que se derivan del uso de la Inteligencia artificial creativa por parte de las empresas, recientemente organizado por el despacho Herbert Smith Freehils. En la sesión, diversos expertos presentaron desde las principales caractarísiticas técnicas de estos sistemas, a los riesgos jurídicos y éticos que plantea su uso, para concluir ofreciendo un decálogo para la regulación interna de su uso en las organizaciones.

Características, capacidades y limitaciones de la IA generativa

Tras la presentación de la jornada por Eduardo Soler, socio director de Herbert Smith Freehills, abordó la parte técnica de la exposición el catedrático de ciencias de la computación e inteligencia artificial y decano de la Facultad de Matemáticas e Infomática de la Universidad de Barcelona, Oriol Pujol Vila.

El profesor Pujol Vila explicó que los sistemas de IA generativa se basan en los grandes modelos de lenguaje (LLM, por su abreviatura en inglés). En concreto, se trata de un algoritmo basado en Deep Learning, una versión avanzada del aprendizaje automático de máquinas o Machine Learning, que utiliza algoritmos que mejoran su comportamiento por la experiencias, según los datos de que disponen. En el caso de la IA generativa, esa mejora se consigue mediante la combinación de un aprendizaje no supervisado (que mejoran la predicción de los resultados) con técnicas de aprendizaje por refuerzo, que afinan la calidad de los resultados obtenidos y un proceso de refinado destinado a depurar las respuestas claramente erróneas o tóxicas.

Los modelos de lenguaje como ChatGPT, Bard, Lamda, Claude y otros, están diseñados para organizar palabras en secuencias, de acuerdo con una distribución basada en probabilidades. Para ello, codifica elementos sintácticos en fución del corpus de textos disponibles y del contexto facilitado para ello. Es decir, se trata de predecir secuencias de palabras ante un contexto o consulta determinados. Por ello, ante cada respuesta responde con un texto formalmente correcto o plausible, pero no necesariamente correcto o cierto en cuanto a su contenido.

Es decir, estos sistemas disponen de competencias inferenciales, que le permiten identificar la relación entre palabras, pero no de competencias referenciales, que son las que permiten establecer una conexión entre la frase ofrecida como respuesta a una consulta con el mundo real. De estas características resulta que los LLM son muy útiles para tareas basadas en las primeras de las características anteriores, para la traducción o el resumen de textos, la automatización de informes, la curación o recuperación de datos o la asistencia a la programación informática.

Por el contrario, su uso plantea una serie de riesgos derivados, en primer lugar, de desconocimiento del propio propósito implícito que caracteriza a los LLM, como son la desigualdad de sus resultados, la presentación de estereotipos o los comportamientos o respuestas tóxicas. También se presentan otros riesgos derivados del uso incorrecto de la herramienta, como la posiblidad de desinformación, los riesgos para la seguridad y privacidad de la información manejada y la propiedad intelectual de los contenidos utilizados para su entrenamiento. En tercer lugar, su consumo enegético es muy elevado, lo que les hace poco sostenibles. Y, finalmente, presenta riesgos relacionados con la centralización del poder ante la evidencia de que son muy pocas las empresas que controlan este tipo de sistemas.

Por todo ello, Pujol concluyó destacando que la adaptación de los LLM al entorno empresarial requiere, por un lado, de un ajuste fino de sus resultados, para adecuarlos a las necesidades de cada organización. Un proceso que, advirtió, reulta caro y compleo. Además, es precisa una adaptación contextual basada en la formulación de una preguntas complejas, para ayudarle a ofrecer la información precisa, algo que solo requiere de un conjunto de buenas prácticas y un nivel de conocimiento medio por los usuarios.

Gobernanza de la IA generativa en la empresa

A continuación, Iria Calviño, directora de Derecho Público y medioambiente de la firma, y Miguel Ángel Barroso, asociado senior de la misma, abordaron las bases éticas y regulatorias de la IA generativa, partiendo del hecho de la UE ya ha incluido, tanto en su Carta de Derechos Fundamentales como en otros documentos, de unos principios éticos aplicables a las tecnologías, como son la autonomía humana, el respeto a la igualdad y equidad, la prevención de daño y la explicabilidad. Todos ellos se orientan a cómo prevenir los riesgos y efectos no previstos derivados de su uso, así como los conflictos de intereses individuales o colectivos que pueden generar.

Estos principios se han trasladado a las iniciativas regulatorias puestas en marcha por la UE, como son la propuesta de Reglamento de IA, la propuesta de Directiva sobre responsabilidad civil derivada del uso de la IA, la propuesta de Reglamento sobre ciberseguridad o la propuesta de cláusulas contractuales estandarizadas para la contratación de sistemas de IA por organismos públicos.

Estas normas, explicaron los ponentes, deberán afrontar los retos que plantea el uso de esas tecnologías, como el de la privacidad y la protección de datos; la protección de los derechos de autor y de propiedad intelectual; la responsabilidad contractual y extracontractual derivada de su uso; sus efectos sobre el derecho del trabajo y la responsabilidad social.

Entrando en la problemática concreta que plantea el uso de estas tecnologías en el ámbito empresarial, Pablo García Mexía, Director de Derecho Digital y TMT de Herbert Smith Freehills, subrayó que la IA permite, claramente, mejorar la eficiencia y reducir costes a las empresas. Pero su uso plantea un doble riesgo: uno puramente legal, por el posible daño que pueda provocar su uso, y otro, vinculado al anterior, de caracter reputacionacional, vinculado a las políticas ESG (medioambientales, sociales y de gobernanza).

Para prevenir esos efectos, García Mexía propuso un decálogo de principios aplicables al uso de la IA generativa por la empresas, por medio de una política propia, separada y coherente con las demás que se sigan por la organización, basada en diseñar una IA centrada en el ser humano; ajustadas a las necesidades del negocio; sencilla, transparente y comprensible por todos; orientada a la seguridad; que involucre a terceros y favorable a la innovación. Unos principios que fueron seguidamente explicados por Ana Garmendia, Asociada de la firma, destacando la importancia de la implantación de una política de gobernanza algorítimica desde el diseño de los sistemas.

El estado de tramitación del futuro Reglamento europeo de IA

Para concluir la sesión, la eurodiputada y ex ministra Pilar del Castillo, en conexión desde Bruselas, presentó algunos datos sobre el estado de tramitación del Reglamento de IA.

Del Castillo explicó que el objetivo de esta norma es muy concreto: proteger los bienes y derechos y la seguridad de las personas, ante el uso de la IA, generando a la vez confianza en esta tecnología. Todo ello con una regulación que no impida la innovación.

En su estado actual de tramitación, se espera que el Reglamento tarde un año, desde su aplicación, en ser aplicable a los sistemas de alto riesgo, con un plazo mayor de adaptación para el resto de sistemas.

Al igual que la Data Act, o Reglamento de datos industriales, aprobado por el Consejo y el Parlamento en junio pasado, pero todavía pendiente de su publicación en el DOUE, se trata de una norma de carácter horizontal, que prevé una aplicación específica según los diferentes sectores en los que se aplique esta tecnología.

Para velar por su aplicación uniforme en toda la Unión, el proyecto prevé la creación de una oficina de la IA que la supervise, en una tarea en la que serán igualmente importantes las autoridades nacionales que también deben crearse y que formarán parte de la Oficina europea. En este sentido, añadió, la recién creada Agencia Española de Supervisión de la IA deberá ajustar su organización y funcionamiento a lo que establezaca el Reglamento.

Finalmente, del Castillo señaló que, dado el carácter transnacional de esta tecnología, es necesario un diálogo internacional y transatlántico sobre aspectos como los estándares aplicables. Además, de ser necesaria la participación del sector privado, tal como ha subrayado la Comisión.

Scroll