Cargando. Por favor, espere

El poder judicial británico presenta un guía de uso de la IA por los jueces del país

  • 18-12-2023 | LA LEY
  • Una guía elaborada por el equivalente al Poder Judicial del Reino Unido presenta los posibles casos de la IA en el ámbito judicial, junto con los riesgos derivados de dicho uso y una serie de principios al respecto.
Portada

Carlos B Fernández. El HM Courts and Tribunals Service del Reino unido (órgano aproximadamente equivalente al Consejo General del Poder Judicial español, para Inglaterra y Gales), ha emitido una Guía para el uso responsable de las herramientas de IA por parte de los titulares de los órganos judiciales (Guidance for responsible use of AI in Courts and Tribunals).

Esta guía, aplicable a todos los titulares de órganos judiciales, a sus superiores jerárquicos, a sus secretarios y demás personal de apoyo, pretende ayudar a los titulares de los órganos judiciales del país en relación con el uso de la Inteligencia Artificial (IA).

Para ello, presenta los principales riesgos y problemas asociados al uso de la IA y algunas sugerencias para minimizarlos, junto con algunos ejemplos de posibles usos.

Posibles usos de la IA por los tribunales y riesgos derivados de los mismos

En principio, la Guía establece que cualquier uso de la IA por o en nombre de la judicatura debe ser coherente con su obligación general de proteger la integridad de la administración de justicia.

A continuación, la Guía presenta lo usos posibles de la de la IA Generativa en juzgados y tribunales y los potenciales riesgos derivados de los mismos

Así, entre las tareas potencialmente útiles, se destaca que

- Las herramientas de IA son capaces de resumir grandes volúmenes de texto (si bien, como con cualquier resumen, hay que garantizar su exactitud).

- Las herramientas de IA pueden utilizarse en la redacción de presentaciones, por ejemplo, para ofrecer sugerencias sobre los temas a tratar.

- Igualmente la IA puede realizar tareas administrativas como redactar correos electrónicos y memorandos.

Sin embargo, existen una serie de tareas para las que no se recomienda utilizar estas herramientas, como son:

- la investigación jurídica: Las herramientas de IA no son una buena forma de investigar para encontrar nueva información que no se pueda verificar de forma independiente.

- El análisis jurídico: los chatbots de IA públicos actuales no producen análisis o razonamientos convincentes.

Por otra parte, la Guía presenta también una serie de indicios que pueden ayudar a identificar que un texto jurídico puede haber sido producido por IA:

- se incluyen referencias a casos que no suenan familiares, o incluyen citas desconocidas (a veces de Estados Unidos)

- se cita diferente jurisprudencia en relación con las mismas cuestiones jurídicas

- documentos que no coinciden con la interpretación general sobre la legislación de una materia

- documentos que utilizan ortografía estadounidense o hacen referencia a casos extranjeros, y

- contenidos que (al menos superficialmente) parecen muy persuasivos y bien redactados, pero que contienen evidentes errores de fondo.

Principios aplicables al uso de la IA por los órganos judiciales

La Guía presenta siete principios:

1) Comprender la IA y sus aplicaciones

Antes de utilizar cualquier herramienta de IA, el Juez debe asegurarse de tener un conocimiento básico de sus capacidades y limitaciones potenciales.

2) Preservar la confidencialidad y la privacidad de la información

El juez que introduzca cualquiera de estas herramientas debe evitar introducir ninguna información en un chatbot público de IA que no sea ya de dominio público. Por tanto, no se debe introducir información que sea privada o confidencial. Cualquier información que introduzca en un chatbot debe considerarse publicada para todo el mundo.

3) Garantizar la precisión de la información generada por la IA

La exactitud de cualquier información que le haya proporcionado una herramienta de IA debe comprobarse antes de utilizarla o basarse en ella para emitir una resolución.

Se advierte que la información proporcionada por las herramientas de IA puede ser inexacta, incompleta, engañosa o no estar actualizada e incluso que, aunque pretenda representar la legislación inglesa, puede no hacerlo.

4) Ser consciente de los sesgos que puede contener la IA

Las herramientas de IA basadas en LLM generan respuestas basadas en el conjunto de datos con el que han sido entrenadas. Por tanto, se advierte que la información generada por la IA reflejará inevitablemente errores y sesgos en sus datos de entrenamiento.

Por tanto, se debe tener siempre en cuenta esta posibilidad y la necesidad de corregirla. En este sentido, se remite al Libro de referencia sobre igualdad de trato (Equal Treatment Bench Book) de la propia organización judicial.

5) Usar herramientas seguras

Se aconseja seguir las mejores prácticas para mantener su propia seguridad y la del tribunal/tribunal. Para ello, se recomienda utilizar dispositivos de trabajo (en lugar de dispositivos personales) para acceder a las herramientas de IA.

Igualmente, se recomienda utilizar una dirección de correo electrónico profesional y utilizar suscripciones de pago (no gratuitas), a las plataformas de IA.

6) Asumir la responsabilidad por el uso de las herramientas de IA

La Guía advierte de que los titulares de órganos judiciales son personalmente responsables del material que se produce en su nombre, si bien, por lo general, no están obligados a describir la investigación o el trabajo preparatorio que hayan realizado para elaborar una sentencia.

En consecuencia, siempre que se sigan adecuadamente estas directrices no hay ninguna razón por la que la IA generativa no pueda ser una herramienta secundaria potencialmente útil.

Ahora, bien, si los secretarios judiciales, los asistentes judiciales u otro personal utiliza herramientas de IA en el curso de su trabajo para el Tribunal, el titular del mismo debe comentarlo con ellos para asegurarse de que utilizan adecuadamente esas herramientas y de que toman medidas para mitigar cualquier riesgo derivado de su uso.

7) Ser consciente de que los profesionales que actúan antes el tribunal pueden haber utilizado herramientas de IA

La Guía advierte finalmente de que algunos tipos de herramientas de IA han sido utilizados por los profesionales del Derecho durante un tiempo considerable sin dificultad. Por ejemplo, los sistemas de revisión asistida (technology-assisted review, o TAR) forma ya parte del paisaje habitual del sistema jurídico británico. Igualmente, muchas herramientas de IA son ya de uso general, por ejemplo, en los motores de búsqueda, para autocompletar preguntas, en las redes sociales para seleccionar el contenido que se entregará, y en el reconocimiento de imágenes y el texto predictivo.

Pese a ello, se recuerda que todos los profesionales del derecho que actúen ante los tribunales son responsables de los materiales que presentan ante el tribunal y tienen la obligación profesional de garantizar que estos sean precisos y adecuados.

Sin embargo, hasta que la profesión jurídica se familiarice con estas nuevas tecnologías, puede ser necesario a veces recordar a los abogados individuales sus obligaciones y confirmar que han verificado de forma independiente la exactitud de cualquier investigación o citas de casos que se hayan generado con la ayuda de un chatbot de IA.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll