Cargando. Por favor, espere

«Solo un conjunto de datos fiables, por su cantidad, calidad y actualización jurídica, permite que la Inteligencia Artificial funcione adecuadamente»

Entrevista a Cristina Retana, directora de Contenidos e Innovación de Aranzadi LA LEY y JusNet en Portugal

«Solo un conjunto de datos fiables, por su cantidad, calidad y actualización jurídica, permite que la Inteligencia Artificial funcione adecuadamente»

  • 22-5-2024 | LA LEY
  • Cristina Retana, directora de Contenidos e Innovación de Aranzadi LA LEY y JusNet en Portugal, nos cuenta en esta entrevista cuál es la aplicación real a día de hoy de la Inteligencia Artificial en el mundo jurídico y que se puede esperar de ella en los próximos años. Además, nos da detalles de los desarrollos basados en esta tecnología que Aranzadi LA LEY ha puesto ya en el mercado y las nuevas líneas que se están explorando en la actualidad.
Portada

Por Fernando Cameo.- Cristina Retana, directora de Contenidos e Innovación de Aranzadi LA LEY y JusNet en Portugal, y miembro del Patronato de su Fundación, es la responsable de diseñar la estrategia de contenidos y de soluciones tecnológicas de la compañía.

Experta en la aplicación de la tecnología a la práctica y la gestión jurídicas, ha diseñado soluciones de Inteligencia Artificial para el mercado legal como Jurimetría, herramienta de analítica jurisprudencial predictiva, el módulo de Notificaciones judiciales automatizadas de Aranzadi Fusión, DocAnalyzer, una aplicación para la extracción automatizada de información en documentos jurídicos o K+ módulo de Inteligancia Artificial Generativa incorporado recientemente a las bases de datos laboral, fiscal y contable-mercantiles de la familia CISS .

Ponente habitual en foros en materia de gestión del conocimiento, LegalTech, automatización de procesos e Inteligencia Artificial y autora de numerosos artículos en la materia, Retana, nos cuenta en esta entrevista cuál es la aplicación real a día de hoy de la Inteligencia Artificial en el mundo de los profesionales jurídicos y que se puede esperar de ella en los próximos años. Además, nos da detalles de los desarrollos que Aranzadi LA LEY ha puesto ya en el mercado y las nuevas líneas que se están explorando en la actualidad.

Las aplicaciones de Inteligencia Artificial se basan en el manejo de una ingente cantidad de datos. ¿Es la calidad de los datos el quid de la cuestión del uso de la IA en el sector legal?

Para entrenar sistemas de inteligencia artificial, no solo generativa, ciertamente, la calidad de los datos es crucial, así como su cantidad. Y en el ámbito legal, la fiabilidad y el grado de actualización son críticos. El modelo que se utilice será, por supuesto, fundamental para conseguir los objetivos y funcionalidades que persigamos. Pero sin un buen «data set» en el que los datos y metadatos sean fiables por su cantidad, calidad y actualización jurídica, no hay modelo que funcione. Me gustaría aclarar que por «calidad» entiendo no solo datos y metadatos ciertos, sino también actualizados y cumplidores con las normativas de protección de datos y propiedad intelectual.

¿Cuáles son los principales riesgos del uso de la IA sin un control adecuado en el mundo jurídico?

La apariencia, casi humana, de los modelos extensos de lenguaje (LLM), con respuestas de una gran calidad gramatical y sintáctica nos pueden hacer pensar que todo lo que indican es correcto y fidedigno. Pensamos que estamos conversando con alguien que nos entiende y que comprende las respuestas que nos aporta, pero la realidad es que técnicamente, funcionan realizando cálculos probabilísticos de la palabra que aparecerá a continuación, sin entender el significado de lo que muestran.

Por ello, en el mundo jurídico, los principales riesgos son, sin ninguna duda, los errores, entendiendo el término error en sentido amplio: desde equivocaciones en plazos, en conceptos o en matices que hacen que la decisión o estrategia jurídica yerre; hasta informaciones incompletas precisamente por no contar con todos los datos necesarios o con datos incorrectos o desactualizados; o «alucinaciones» o incorrecciones. Todas ellas opciones inadmisibles en la excelencia que se exige al trabajo jurídico y que pueden generar efectos colaterales graves en los clientes de los profesionales del Derecho.

En consecuencia, la supervisión y la comprobación de cualquier respuesta en fuentes fiables es crítica.

¿En qué áreas o para qué tareas del mundo jurídico tiene la IA una aplicación segura ya hoy en día?

Creo que se debe distinguir entre inteligencia artificial generativa y otros tipos de inteligencia artificial, llamémosla «tradicional». Con respecto a las primeras, también entiendo que hay que diferenciar las herramientas que podemos llamar «públicas», como ChatGPT o Gemini, donde creo que, hoy por hoy, son un punto de partida o contexto básico, pero cuyos resultados obtenidos siguen debiendo ser revisados por humanos. Es cierto que, si estamos ante consultas para realizar resúmenes, mejorar la redacción original, proponer ideas o enfoques originales o puntos de apoyo para charlas, artículos u otro tipo de materiales, la supervisión será más liviana que en otros supuestos ligados al ámbito puramente legal, donde la fiabilidad y seguridad jurídica de la propuesta siempre y necesariamente habrán de ser supervisadas por juristas.

Pero, junto a ellas, aparecen los entrenamientos específicos para el sector jurídico (por ejemplo Jurimetría, la herramienta de analítica jurisprudencial predictiva, el módulo de Notificaciones judiciales automatizadas de Aranzadi Fusión, DocAnalyzer para la extracción automatizada de información en documentos jurídicos o K+ el módulo de Inteligencia Artificial Generativa de Aranzadi LA LEY), con pruebas de análisis de datos complejos en los que ya estamos acostumbrándonos a utilizar criterios como el fine tuning o el legal prompting para perfilar los posibles casos de uso. Todo ello en entornos seguros que garanticen la privacidad y protección de los datos usados y de los resultados obtenidos.

Por el contrario, ¿En qué asuntos o trabajos desaconseja, a día de hoy, la aplicación de IA por no ser segura o eficiente?

Como comentaba anteriormente, creo que en los entornos abiertos como ChatGPT u otras herramientas públicas, se debe ser extremadamente cauteloso porque la fuente de la que se ha «generado» el contenido propuesto puede no estar actualizada o no ser fiable, y adicionalmente, no hay que olvidar que podemos estar perdiendo el control de datos (personales y no personales), secretos empresariales (incluidos códigos fuente) u otro know how del que seamos titulares si utilizamos soluciones que no tienen un respaldo que garantice la protección de nuestros activos y su propiedad intelectual.

Existe cierta preocupación en el sector legal tras la irrupción de estas tecnologías. ¿Qué podemos esperar en los próximos meses? ¿Y en los próximos años? ¿Qué horizonte tiene por delante la IA generativa en el marco jurídico?

El sector legal ha vivido una enorme transformación tecnológica en los últimos 30 años. Pensemos que a principios de los 90 las sentencias se buscaban en papel, el correo electrónico no estaba implantado, comenzaba a usarse Internet… Los juristas se han ido adaptando a todas estas novedades con éxito. Es cierto que las dificultades que impuso la pandemia aceleraron esa transformación, que ahora se acentúa con las funcionalidades que en muchos ámbitos ampliará la inteligencia artificial, en especial, la generativa. Por nuestra parte, esperamos una agilización en muchos de los procesos que ocupan a los juristas en sus diferentes perfiles (transaccionales, litigadores, compliancers, etc.), a la que sin duda aportaremos nuestra experiencia tecnológica y jurídica, ofreciendo funcionalidades y soluciones que mejoren el acceso a la justicia y optimicen el ejercicio de las funciones legales.

El Grupo Karnov ha apostado fuerte por la inclusión de estas tecnologías en sus soluciones. ¿En qué se materializará esta apuesta en el corto plazo? ¿Y en el futuro?

Se ha creado ya un equipo europeo transnacional y multidisciplinar que será el que coordine y marque la estrategia del grupo. También destaco que se ha creado una política de uso de las herramientas de inteligencia artificial que se ha puesto en conocimiento de las personas que trabajamos en el Grupo escandinavo Karnov. Además, España ha sido pionera en desarrollar diferentes casos de uso: uno relacionado con las respuestas jurídicas concretas y seguras, basadas exclusivamente en fuentes de información Aranzadi LA LEY, y otros, ligados a otras funcionalidades asistidas por la IA generativa en la sintetización de documentación legal o en el apoyo en procesos de análisis de documentación para due diligence o pleitos masa. Son sólo ejemplos de toda una serie de nuevas posibilidades que estamos ya implementando en las soluciones Aranzadi LA LEY mediante nuestro asistente legal K+.

Una de nuestras premisas es el rigor y la seguridad jurídica, por ello, todos nuestros desarrollos son validados y supervisados por un equipo conjunto de tecnólogos y juristas, que trabajan conjuntamente con nuestros clientes, garantizando la calidad del resultado.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll