Cargando. Por favor, espere

Portada

Desde la difusión de las herramientas de IA (IA) generativa a partir de diciembre de 2022, cuando se presentó la versión 3.5 de ChatGPT, han ido sucediéndose los casos de abogados que han acudido a estas herramientas para obtener información que utilizar en la defensa de los casos que tenían encomendados, sin asegurar la veracidad de los resultados ofrecidos por las mismas, planteando a los tribunales fundamentos normativos o jurisprudenciales inexistentes o incorrectos (1) .

Estas actuaciones ya han conllevado diversas consecuencias. En primer lugar, la lógica desestimación de las acciones o los recursos interpuestos por dichos letrados. En segundo lugar, el establecimiento por algunos tribunales de normas específicas sobre la presentación de escritos procesales ante su jurisdicción. Y, además, la imposición de sanciones por parte de los órganos judiciales afectados a los abogados que han realizado tales acciones (2) .

Y aunque algunos órganos colegiales o corporativos de la abogacía han emitido recomendaciones o dictado normas deontológicas para prevenir estas conductas, e incluso se han propuesto herramientas para ello (3) , la evidencia pone de manifiesto que estas situaciones siguen produciéndose.

La consecuencia es un progresivo endurecimiento de la posición de los tribunales ante las mismas, que ya plantean su consideración como conductas contrarias a la buena fe procesal o, incluso como desacato al tribunal.

Así lo han puesto ya de manifiesto diferentes resoluciones judiciales (también en nuestro país, como veremos más adelante).

En particular, la reciente sentencia de 6 de junio de 2025 de la Divisional Court de la King’s Bench Division del High Court del Reino Unido (4) ofrece una visión muy completa sobre esta cuestión, como reseñaremos a continuación.

En ella el tribunal resuelve específicamente dos recursos planteados ante su jurisdicción de acuerdo con la denominada Hamid jurisdiction, una doctrina puesta en marcha a partir de la sentencia de 20 de junio de 2018 del Upper Tribunal (Immigration and Asylum Chamber) (5) para garantizar que los abogados se comporten conforme a las normas de conducta adecuadas.

En virtud de esta doctrina, el Tribunal ejerce las facultades que tiene atribuidas para regular sus propios procedimientos y hacer cumplir los deberes que los abogados tienen (6) , ante el uso, real o presunto, por parte de los abogados que actúan ante él, de herramientas de IA generativa para elaborar argumentos jurídicos escritos o declaraciones testificales que no se verifican posteriormente, de modo que se presenta ante el tribunal información falsa (normalmente, una referencia legislativa o jurisprudencial inexistente o no relacionada con el caso) (7) .

En opinión del tribunal, estos hechos despiertan, en primer lugar, inquietud sobre la competencia profesional y la conducta de los abogados que actúan ante él.

Pero también suscitan, se añade, una preocupación más profunda sobre la formación y la supervisión del trabajo de los abogados más jóvenes o inexpertos que actúan ante los tribunales, y sobre las medidas prácticas adoptadas por quienes tienen responsabilidades en dichas áreas para garantizar que estos abogados comprendan y cumplan con sus responsabilidades profesionales y éticas, así como con sus deberes ante el tribunal.

Por ello, el Tribunal, además de resolver los recursos planteados, realiza una profunda reflexión sobre los supuestos de utilización de la IA para la elaboración de escritos procesales y sus implicaciones sobre las obligaciones de los abogados.

I. Los casos analizados

1. El caso Ayinde

En el primero, el demandante (Sr. Ayinde) interpuso un recurso contra la decisión del municipio londinense de Haringey por no haberle proporcionado alojamiento provisional a la espera de la revisión legal de la decisión que lo declaraba sin necesidad prioritaria de vivienda. El actor actuó representado de oficio por un despacho vinculado a una organización benéfica que presta servicios a personas en situación de vulnerabilidad, dirigido por un letrado para el que trabajaba una joven abogada litigante (barrister), la Sra. Forey, que fue quien firmó la demanda, en cuya preparación contó con la colaboración de una paralegal (8) .

En el escrito se citaban como precedentes jurisprudenciales en apoyo de su pretensión cinco sentencias.

Tanto el demandado como el tribunal pudieron comprobar que la referencia oficial de una de las citadas sí existe, pero, además de que las partes por las que se le identifica no coinciden, se refiere a un caso sin relación con el tratado en este litigio.

Los otros cuatro casos citados por la demanda tampoco existen. Además, el tribunal destaca que en las mismas se utiliza una sintaxis americanizada («emphasized») y estilo algo formulista (somewhat formulaic) que no se corresponde con la de los tribunales británicos.

Tras desestimarse la demanda, el demandado solicitó la condena en costas tanto del despacho encargado de la acción como de la abogada firmante del escrito por el que este se inició.

El juez de instancia estimó la pretensión de condena en costas, al apreciar que la conducta de la Sra. Forey y del Centro Jurídico Haringey había sido impropia, irrazonable y negligente (improper and unreasonable and negligent), señalando, por una parte, que «Es totalmente inapropiado (wholly improper) incluir casos falsos en un escrito» y añadiendo que «es responsabilidad del equipo legal, incluidos los abogados, verificar que la exposición de hechos y fundamentos sea correcta». Por ello estima que proporcionar una relación de cinco casos falsos, incluido un caso del Tribunal de Apelación, constituye claramente una falta profesional (professional misconduct), por lo que ordenó remitir el asunto al Bar Standards Board (9) y al Solicitors Regulation Authority (10) .

La opinión de la High Court

Recurrido el caso ante la High Cout, la Sala considera que, a la vista de las actuaciones, cabe apreciar dos posibles escenarios. Uno es que la abogada firmante del escrito incluyó deliberadamente citas falsas en su escrito, lo que constituiría un claro desacato al tribunal (11) .

El otro es que utilizó herramientas de IA generativa para elaborar esa lista de precedentes o para redactar parte de la demanda. En tal caso, su negación de esta circunstancia en una declaración testifical previa realizada ante el tribunal de instancia es falsa. Lo cual también constituiría un desacato. Es decir, en ambos casos, la Sala aprecia que concurren los requisitos para iniciar un procedimiento por desacato (núm. 68).

Sin embargo, continúa, decide no iniciar un procedimiento por desacato ni trasladar el caso a la fiscalía, por una serie de motivos:

  • 1. En primer lugar, existen varias cuestiones de hecho que no pudieron determinarse fácilmente en el curso de un procedimiento sumario por desacato.
  • 2. En segundo lugar, se plantean dudas sobre posibles fallos de quienes fueron responsables de la formación de la Sra. Forey, de su supervisión, de la aprobación de su pasantía, de su asignación de trabajo y de la comercialización de sus servicios. Estas cuestiones no pudieron abordarse en un procedimiento por desacato interpuesto únicamente contra la Sra. Forey.
  • 3. En tercer lugar, la Sra. Forey ya ha sido condenada en costas por la sentencia de instancia y su conducta será objeto de investigación por parte de su organismo profesional regulador.
  • 4. En cuarto lugar, se trata de una abogada con muy poca experiencia que, al parecer, operaba fuera de su nivel de competencia y en un contexto familiar y laboral complejo.
  • 5. Y, en quinto lugar, porque la principal preocupación del Tribunal es garantizar que los abogados comprendan claramente las consecuencias (si no las entendían antes) de utilizar IA para la investigación jurídica sin contrastar dicha investigación con fuentes fidedignas.

Sin embargo, concluye la Sala advirtiendo que su decisión de no iniciar un procedimiento por desacato contra la abogada no constituye un precedente para otros supuestos similares que puedan producirse, pues, «los abogados que incumplan sus obligaciones profesionales en este sentido se arriesgan a sanciones severas».

2. El caso Al-Aroun

Este caso, de naturaleza más compleja que el anterior, enfrentaba a un demandante que reclamaba, a través de una firma de abogados, una indemnización de 89,4 millones de libras al Banco Nacional de Qatar por presuntos incumplimientos de un contrato de financiación.

En el intercambio de escritos procesales entre las partes, se pudo apreciar que, en dieciocho casos, el precedente citado por el actor no existía. En cuanto a los casos que sí existían, en muchos casos no contenían las citas que se les atribuían, no respaldaban las proposiciones para las que se citaban o carecían de relevancia para el objeto de la demanda. Es decir, en la concisa conclusión del asistente judicial, «La gran mayoría de las autoridades [judiciales citadas] son inventadas o malinterpretadas».

En estas condiciones el tribunal de instancia considera que «se trata de un asunto de la máxima gravedad», ya que el despacho del actor está regulado por la SRA y, por consiguiente, su abogado es considerado un servidor del tribunal (Officer of the Court (12) ). Como tal, tanto él como ellos tienen el deber de no engañar ni intentar engañar al tribunal, ya sea por sus propias acciones u omisiones, o permitiendo o siendo cómplices de las acciones u omisiones de su cliente.

La administración de Justicia, continúa el juez de instancia, depende de que el tribunal pueda confiar sin cuestionamientos en la integridad de quienes comparecen ante él y en su profesionalidad, presentando únicamente argumentos debidamente fundamentados.

Por su parte, el abogado del actor aceptó que su declaración testifical contenía citas de autoridades inexistentes, basadas en una investigación jurídica realizada por su cliente (no por él mismo), sin verificarla. A la luz de lo sucedido, declaró que se retira de todos los asuntos litigiosos que tuviera encomendados y que «emprenderá una revisión de las mejores prácticas en materia de redacción jurídica y los deberes éticos de los abogados en la conducción de litigios, además de asistir a cursos de formación profesional continua». Aseguró que esto no volverá a suceder y ofreció disculpas sin reservas al tribunal.

La opinión de la High Court

Para la High Court, la relevancia de este caso debe centrarse en la conducta de los abogados, no en la de los litigantes, ya que los errores que estos hayan podido sufrir al localizar la información que facilitan al abogado, no eximen a estos de responsabilidad.

Es más, se señala, lo extraordinario es que el abogado confiara en el cliente para la precisión de su investigación jurídica, y no al revés.

Esta conducta del letrado constituye, en opinión del Tribunal, «un lamentable incumplimiento (a lamentable failure) del requisito básico de verificar la exactitud del material presentado ante el tribunal».

Según la Sala, «Un abogado no tiene derecho a confiar en su cliente lego para la exactitud de las citas bibliográficas o citas contenidas en los documentos presentados ante el tribunal por él mismo. Es responsabilidad profesional del abogado garantizar la exactitud de dicho material».

Sin embargo, tampoco en este caso el tribunal considera procedente iniciar un procedimiento por desacato, ante su convencimiento de que el letrado actor no comprendió la verdadera situación en la que se encontraba, como se deduce que invocara ante el tribunal de instancia una sentencia inexistente atribuida al mismo tribunal. Una acción que, en opinión del Tribunal, si se hubiera tratado de un intento deliberado de engañar al juez, seguramente habría fracasado.

II. Conclusiones de la High Court

En su sentencia, el Tribunal realiza una serie de reflexiones sobre la IA y su utilización por los abogados en el ámbito jurisdiccional.

1. La IA es una tecnología muy potente, pero su uso plantea riesgos

En primer lugar, señala que la IA es una tecnología potente que puede ser una herramienta útil en litigios, tanto civiles como penales. Se utiliza, por ejemplo, para facilitar la investigación en el ámbito de los Tribunales Mercantiles y de Propiedad. Un informe reciente sobre la divulgación en casos de fraude ante los tribunales penales (13) ha recomendado la creación de un protocolo interinstitucional que abarque el uso ético y adecuado de la IA en el análisis y la divulgación de material de investigación. Por todo ello, es probable que la IA desempeñe un papel importante en la conducción de litigios en el futuro.

Sin embargo, la IA es una herramienta que conlleva riesgos. Por lo tanto, su uso debe realizarse con un grado adecuado de supervisión y dentro de un marco regulatorio que garantice el cumplimiento de estándares profesionales y éticos consolidados, si se quiere mantener la confianza pública en la administración de justicia.

Como señaló el Juez Dias al remitir el caso de Al-Haroun a este tribunal, la administración de justicia depende de que el tribunal pueda confiar sin reservas en la integridad de quienes comparecen ante él y en su profesionalidad, presentando únicamente argumentos debidamente fundamentados.

2. La IA generativa no es una herramienta adecuada para la búsqueda de información jurídica

En el contexto de la investigación o búsqueda de información jurídica, los riesgos del uso de IA son bien conocidos. Las herramientas de IA generativa de libre acceso, entrenadas con grandes modelos de lenguaje como ChatGPT, no son capaces de realizar una investigación jurídica fiable. Dichas herramientas pueden producir respuestas aparentemente coherentes y plausibles a las indicaciones, pero estas respuestas coherentes y plausibles pueden resultar completamente incorrectas. Las respuestas pueden hacer afirmaciones contundentes que son simplemente falsas. Pueden citar fuentes inexistentes. Pueden pretender citar pasajes de una fuente genuina que no aparecen en dicha fuente.

Por tanto, quienes utilizan IA para realizar investigaciones jurídicas, a pesar de estos riesgos, tienen el deber profesional de comprobar la exactitud de dicha investigación consultando fuentes fidedignas antes de utilizarlas en su labor (por ejemplo, para asesorar a clientes o ante un tribunal) (14) .

Este deber recae en los abogados que utilizan IA para realizar sus propias investigaciones o que se basan en el trabajo de otros que ya lo han hecho. Esto no excusa de responsabilidad a un abogado que se basa en el trabajo de un abogado en prácticas o un abogado en prácticas, por ejemplo, o en la información obtenida mediante una búsqueda en internet.

3. El uso de la IA plantea obligaciones específicas de supervisión a los responsables de las firmas

Sin embargo, añade el Tribunal, iríamos más allá. El uso indebido de la IA tiene graves consecuencias para la administración de justicia y la confianza pública en el sistema judicial. En estas circunstancias, quienes en la abogacía tienen responsabilidades individuales de liderazgo (como los directores de área y los socios directores) y quienes tienen la responsabilidad de regular la prestación de servicios jurídicos, deben adoptar medidas prácticas y eficaces para garantizar que toda persona que preste servicios jurídicos comprenda y cumpla con sus obligaciones profesionales y éticas, así como con sus deberes ante el tribunal, en caso de utilizar IA.

Por ello, concluye el tribunal, de cara al futuro, en los casos en los que se plantee la jurisdicción Hamid, los profesionales de la abogacía pueden esperar que el tribunal investigue si se han cumplido dichas responsabilidades de liderazgo.

4. Las directrices corporativas emitidas hasta ahora resultan insuficientes

Finalmente, destaca que estos casos demuestran que la promulgación de directrices por los órganos profesionales es por sí sola insuficiente para abordar el uso indebido de la IA por parte de los abogados. Por ello añade que es necesario intensificar los esfuerzos para garantizar que se sigan las directrices y que los abogados cumplan con sus obligaciones ante el tribunal. Por lo que se invita a los Colegios de Abogados y al Consejo de la Abogacía a considerar con urgencia qué medidas adicionales deberían adoptar a la luz de esta sentencia.

III. La situación en España

En nuestro país ya se han producido varios casos como el indicado al comienzo de este trabajo, que han dado lugar a las correspondientes respuestas judiciales.

1. El acuerdo de la Sala Primera del TC de 19 de septiembre de 2024

En este sentido, se conoce el caso de un letrado que, en un procedimiento de amparo constitucional, citó en defensa de los intereses de su patrocinado nada menos que 19 antecedentes jurisprudenciales inexistentes, al parecer obtenido de una IA generativa.

En respuesta a este proceder, la Sala Primera del TC dictó un acuerdo, de fecha 19 de septiembre de 2024 (15) , por el que impuso al abogado una sanción de «apercibimiento», por considerar que había faltado por escrito al respeto debido a los magistrados de la Sala y a la propia institución.

Y, además de inadmitir el recurso por falta de justificación del requisito de la especial trascendencia constitucional de los arts. 49.1 y 50.1.b) de la Ley Orgánica del Tribunal Constitucional (LOTC) (LA LEY 2383/1979), ordenó dar traslado de su decisión al Colegio de Abogados de Barcelona, al que pertenece el letrado sancionado, a los efectos disciplinarios que correspondan.

El Acuerdo da por acreditada la falsedad de las 19 citas de doctrina, descartando que el motivo dado en su descargo por el abogado (haberse desconfigurado una base de datos con jurisprudencia que había preparado para ese asunto) tuviera eficacia.

Pero además, el tribunal añade que, sobre todo, porque «fuera cual fuese la causa de la inclusión de citas irreales (uso de la IA , entrecomillado de argumentos propios, etcétera), el letrado es siempre responsable de revisar exhaustivamente todo el contenido de este y de cualquier escrito que presenten en un proceso constitucional (en este caso de amparo), corrigiendo en su caso lo mal hecho, antes de su envío al procurador para su presentación en el registro general de este Tribunal».

El Acuerdo recoge también que dicha falta del debido respeto a los magistrados de la Sala Primera y al Tribunal como institución, se ha producido «no en forma de insultos o descalificaciones expresas, pero sí con claro desprecio de la función jurisdiccional que éstos desempeñan, al atribuirles el conocimiento de una serie de declaraciones entrecomilladas de doctrina constitucional que éstos debían dar por buenas, cuando las mismas carecían de todo anclaje en la realidad».

Esto supuso, según el Acuerdo, una perturbación del trabajo del Tribunal (como el propio abogado lo califica), «no por tener que verificar la veracidad de cada cita incluida en la demanda, lo que se hace siempre con todos los escritos y recursos, sino por tener que enjuiciar las consecuencias de tal injustificada irregularidad, tanto en el plano procesal como, de manera extraordinaria también, en este sancionador».

En orden a determinar la sanción aplicable a esta conducta profesional (apercibimiento, o multa según el art. 554.1 LOPJ (LA LEY 1694/1985)), la Sala se decanta por la menor de apercibimiento, dada la falta de antecedentes del letrado respecto de otros hechos merecedores de reproche sancionador, y a que la gravedad de su conducta queda atemperada por la imposibilidad de que pudieran surtir efecto las citas irreales de cara a la admisión y en su caso estimación de la demanda de amparo, «al resultar evidente que su irrealidad quedaría al descubierto».

2. El auto de la Sala de lo Civil y Penal de TSJ Navarra de 4 de septiembre de 2024

Pocos días antes de este Acuerdo del TC, la Sala de lo Civil y Penal del STSJ Navarra, había dictado un Auto, de fecha 4 de septiembre de 2024 (Rº 17/2024 (LA LEY 303542/2024), ponente Sr. Sánchez Siscart), en el que resolvía no abrir pieza separada por abuso de derecho o mala fe procesal a un letrado que en un escrito de querella citó un precepto del Código Penal colombiano en lugar del español, error que fue causado por un mal uso de la IA generativa.

Advertido el error, el letrado se apresuró a presentar un escrito ante la Sala ofreciendo al tribunal sus más sinceras disculpas y solicitando la subsanación de un error material grosero e involuntario padecido en la redacción de la querella, debido a un manejo inadecuado por parte de su despacho del sistema ChatGPT.

En su Fundamento de Derecho Tercero, la Sala explica lo siguiente:

«El uso de las tecnologías emergentes y de los materiales generados por IA en los procedimientos judiciales no está exento de importantes consideraciones éticas y legales para garantizar un uso responsable. Lo que impone una verificación adicional, puesto que la revisión y validación de los documentos legales seguirá siendo responsabilidad de los abogados para garantizar la precisión y el cumplimiento normativo. …

No nos cabe duda que el uso descuidado de estas tecnologías en los procedimientos judiciales plantea importantes implicaciones deontológicas y, desde luego, es susceptible de integrar un claro ejemplo de mala fe procesal y de abuso del proceso. …»

No obstante, la Sala concluye que, dada «la singularidad del caso que nos ocupa, el hecho de que nos encontremos ante una materia ciertamente novedosa, así como la inmediata reacción del Letrado querellante excusando el error cometido, determina que la Sala se incline por el archivo de la presente pieza separada sin imponer la correspondiente sanción pecuniaria, sirviendo la presente —quizá— de advertencia de las implicaciones legales, deontológicas y éticas que puede plantear el uso descuidado de las nuevas tecnologías

A nivel colegial o corporativo no existen por el momento pautas al respecto, si bien se sabe que el Ilustre Colegio de la Abogacía de Madrid está preparando unas pautas en este sentido.

3. La política de uso de la IA en la Administración de Justicia de junio de 2024

Por su parte, el Comité Técnico Estatal de la Administración Judicial Electrónica (CTEAJE), emitió, en junio de 2024, un documento titulado «Política de uso de la IA en la Administración de Justicia» (16) por el que se fijan una serie de criterios mínimos con la finalidad de asegurar un uso responsable, legal y ético de la IA en el ámbito de la Administración de Justicia, incluyendo un Anexo con definiciones, así como un desglose de usos aceptados y otros prohibidos.

En este documento se diferencian:

1. Casos de uso generalmente permitidos

Usos que no involucran información personal o información confidencial, son solo para una audiencia interna y su resultado no se utilizará en resoluciones judiciales o administrativas.

Ejemplos:

  • Traducción de texto de una fuente secundaria disponible públicamente.
  • Llevar a cabo una investigación de antecedentes de alto nivel sobre un tema no delicado.
  • Generación de informes que no afectan a derechos u obligaciones de los ciudadanos.
  • Obtener resúmenes de documentos extensos, en forma de texto, vídeo o audio.

2. Casos de uso que requieren la aprobación de la dirección

Aquellos que, sin involucrar datos protegidos, pueden ser usado para atender a los ciudadanos, profesionales o empresas, con los datos propiamente aportados por estas personas.

Aquellos que, en el caso anterior (sin datos con algún tipo de protección), usan información que será utilizada para la toma de decisión.

Aquellos que, usando datos privados, personales o confidenciales, pueden aportar resultados que sean necesarios para el desarrollo y como apoyo de la actividad que le es propia a la organización.

3. Casos de usos prohibidos

Uso de datos de carácter personal o con algún tipo de protección cuyo uso no se encuentra en los casos anteriores.

Específicamente, usar documentos y datos protegidos para generar información o documentos para la toma de decisiones que afectan a derechos u obligaciones de los ciudadanos, profesionales o empresas

Sin embargo, se permite previa autorización, la generación de documentación de soporte que sea usada en expedientes judiciales o en el ámbito de toma de decisiones de la Administración.

En conclusión, el escenario que está planteando el creciente uso de la IA generativa por los profesionales del Derecho en su actuación ante los tribunales (aunque cabe considerar también en tareas de asesoramiento no litigioso), plantea para estos profesionales un deber de extremar la diligencia en la utilización de las fuentes propuestas.

Su incumplimiento, puede dar lugar a responsabilidades profesionales relevantes también en el ámbito procesal, pues los tribunales están siendo progresivamente conscientes del perjuicio que a la Administración de Justicia provoca el uso no supervisado de estas herramientas.

Probablemente, en un futuro cercano, nuevas medidas regulatorias, de índole procesal y también corporativo, vendrán a definir con mayor precisión el alcance de esta obligación y las consecuencias de su incumplimiento.

Scroll