Ilier Navarro. El uso de la inteligencia artificial (IA) por parte de los empleados, más allá de Chat GPT, es una realidad en muchas empresas y supone un reto para sus directivos. De ahí que sean cada vez más las que dan el paso de solicitar asesoramiento legal para establecer una política de uso de la IA que rija a sus trabajadores. Esta iniciativa no responde únicamente a la necesidad de mitigar los riesgos que entraña la integración de esta tecnología disruptiva en el día a día de un negocio, sino que se relaciona también con una mayor conciencia del potencial que tiene en el funcionamiento de las organizaciones, mejorando su eficiencia y ahorrando tiempo en tareas más rutinarias que pueden encontrar en la automatización un acelerador de su eficacia.
Un primer riesgo legal que se debe tener en cuenta tiene relación con los incumplimientos relacionados con la confidencialidad y la protección de datos. Y es que los sistemas de inteligencia artificial generativa, como Chat GPT, requieren que previamente se introduzcan datos, información real, sobre la cual elaboran una o varias propuestas. No se puede pasar por alto que, si la aplicación está domiciliada fuera de las fronteras europeas, se podría estar produciendo una transferencia internacional de datos.
Por otra parte, están las implicaciones sobre propiedad intelectual. Esto puede suponer que la IA elabore una respuesta a la consulta que se le ha planteado en base a información de terceros que esté protegida.
Si hablamos de inteligencia artificial, no se puede ignorar el riesgo relacionado con la veracidad de las respuestas, las incorrecciones o el uso de información desactualizada. La IA puede acudir a fuentes no fiables para contestar a la petición que se le está planteando. La necesidad de verificar cualquier contenido que se elabore en aplicaciones de inteligencia artificial es algo que se debe recalcar no solo en el ámbito profesional, sino también en el personal. Y es que se pueden dar casos de alucinaciones, es decir, de invención de respuestas por parte de esta tecnología cuando no da con una solución al problema que le plantean.
Algunos de estos problemas surgen principalmente en el uso de las IA generativa de código abierto, como las versiones gratuitas de Chat GPT, que se nutren a la vez de los datos que introducen otros usuarios que acceden a ella. De ahí que cada vez más empresas opten por contratar servicios de inteligencia artificial específicos de su sector que han sido entrenadas con datos de su actividad profesional. De este modo, son más seguras y fiables, pero siempre es conveniente verificar y no dejar todo en manos de la IA.
Política de uso de la IA
Tanto si el empleado utiliza la inteligencia artificial gratuita como si lo hace con la aplicación contratada por su empresa, es recomendable contar con una política de uso de la IA. No es baladí, por tanto, regular en el ámbito laboral una política de uso de la inteligencia artificial con fines profesionales.
El reto implica contar con asesoramiento especializado en Derecho laboral, pero también con abogados que conozcan la tecnología, que estén al día en el área de protección de datos y, lo más deseable, que sean usuarios de la inteligencia artificial. Con el uso práctico de esta tecnología, es más probable que puedan comprender mejor, en primera persona, los retos legales de su uso y, por tanto, ofrecer respuestas más acertadas a las necesidades de las empresas que quieren -y deben- regular el uso de la IA en el trabajo.
En estas política, la formación será una pieza clave, ya que los trabajadores deben conocer los riesgos jurídicos que supone el uso de estas nuevas tecnologías en su puesto de trabajo y, en concreto, de la inteligencia artificial basada en el lenguaje natural. También se debe fijar qué tipo de IA se puede utilizar, en qué áreas o con qué objetivos se puede recurrir a esta innovación, cómo utilizarla y las medidas de prevención.
Se debe dejar claro qué tipo de datos o de información se puede subir a estas aplicaciones y las consecuencias de no seguir esas directrices tanto para la propia empresa como para ellos, en términos de faltas y sanciones laborales.
Otro asunto que se debe considerar es contar con un profesional que supervise el cumplimiento de esta política de uso de la IA en el ámbito laboral de las empresas. Y que se puedan aplicar sanciones cuando se haga un mal uso de esta innovación o bien, cuando se contravengan las normas corporativas.
Reto para grandes y pequeñas empresas
Este tipo de políticas de uso de la IA está despertando el interés no solo de grandes empresas, sino también de pymes. La realidad es que la inteligencia artificial es una tecnología que poco a poco se va integrando en nuestra vida cotidiana y tiene aplicaciones beneficiosas y un impacto positivo en términos de eficiencia y de centrar el uso del tiempo de trabajo en tareas que aporten mayor valor a los clientes o a los negocios. Pero al conllevar riesgos de carácter legal, será necesario contar con asesoramiento jurídico por parte de un equipo multidisciplinar con el fin de mitigar sus efectos indeseados.
No es algo que tenga que ver únicamente con la industria tecnológica, que suele llevar la delantera en estos asuntos, sino que tiene efectos en múltiples sectores profesionales.
¿Vetarla? No parece una solución acertada. La prohibición de su uso puede cerrar puertas a una tecnología disruptiva, la inteligencia artificial, que puede suponer numerosas ventajas, como la mejora de la eficiencia de las empresas y en el ahorro de costes y de tiempo.