Cargando. Por favor, espere

Portada

I. Introducción: sesgo de automatización y abogacía

La llegada de la inteligencia artificial y, en particular, de los modelos de lenguaje natural, supone uno de los retos más inmediatos para la práctica del Derecho. Se ponen a disposición de los abogados una gran variedad de herramientas que facilitan la redacción de documentos y la investigación jurídica. Al igual que ha ocurrido con toda mejora tecnológica, debemos alejarnos de visiones catastróficas o luditas: su implantación será inevitable.

Sin embargo, esta adopción conlleva riesgos, entre los cuales destaca el «sesgo de automatización» (2) o «automation bias» (3) . Este fenómeno se refiere a la tendencia de los individuos a confiar excesivamente en los sistemas automatizados, asumiendo que sus resultados son correctos, sin una verificación crítica. O, incluso, renunciando al conocimiento propio, considerando que la máquina es superior. En el contexto legal, implica el riesgo para los abogados de presentar escritos erróneos (por ejemplo, demandas o recursos) generados por IA sin una revisión adecuada, lo que podría conducir a una defensa deficiente, impactando en el derecho fundamental a la tutela judicial efectiva que ostenta el justiciable (y cliente, desde una perspectiva contractual y mercantil).

El papel del abogado es uno de los engranajes clave de la tutela judicial efectiva, pues es el primer eslabón entre el ciudadano y el sistema de justicia. Así lo reconoce la exposición de motivos de la nueva Ley Orgánica 5/2024, del Derecho de Defensa (LA LEY 25554/2024), considerando, con acierto, que entre ambas existe una vinculación «íntima y sustancial». Así se desprende también el art. 1.5 del Estatuto General de la Abogacía española: «En el Estado social y democrático de Derecho, los profesionales de la Abogacía desempeñan una función esencial y sirven los intereses de la Justicia, mediante el asesoramiento jurídico y la defensa de los derechos y libertades públicas.»

Pero, ¿en qué posición queda el ciudadano, acreedor del derecho fundamental a la tutela judicial efectiva (y no indefensión) del art. 24 CE (LA LEY 2500/1978), cuando su abogado, que ostenta el rol de transmisor y defensor de sus intereses, incurre en el «sesgo de automatización»? O, dicho en palabras llanas: ¿cómo impacta en el justiciable el error provocado por la presentación de un escrito defectuoso generado por IA?

El artículo 4.1 de la nueva LODD 5/2024 (LA LEY 25554/2024) configura el «Derecho a la asistencia jurídica», sin excesiva precisión, pero comenzando con una referencia pertinente para la casuística propuesta: «Las personas físicas y jurídicas tienen derecho a recibir la asistencia jurídica adecuada para el ejercicio de su derecho de defensa». Por consiguiente, ¿sería cabal afirmar que el letrado que incurre en este tipo de error vulnera un derecho fundamental del justiciable? ¿Podemos hablar por tanto de mala praxis y, en su caso, de responsabilidad civil o deontológica de acuerdo con el Estatuto General de la Abogacía Española, aprobado por Real Decreto 135/2021?

Recientes resoluciones relacionadas con el uso inadecuado de la inteligencia artificial (IA) ponen de manifiesto la necesidad de una supervisión humana rigurosa. En España, el 4 de septiembre de 2024 el Tribunal Superior de Justicia de Navarra (LA LEY 303542/2024) acordó, en virtud de Auto 2/2024, no sancionar a un abogado que utilizó ChatGPT y el texto generado invocó preceptos de Código Penal colombiano. En Estados Unidos, dos abogados fueron sancionados con 5.000 dólares por presentar un escrito elaborado con IA que incluía precedentes judiciales inexistentes. Así, una confianza excesiva en la IA, sin una revisión adecuada, puede comprometer el derecho a una tutela judicial efectiva para el justiciable, y puede suponer una vulneración del código deontológico de la abogacía.

II. La nueva Ley Orgánica de Derecho de Defensa 5/2024: «derecho a la calidad» y aplicación al caso

El artículo 8 de la nueva LODD (LA LEY 25554/2024) ha introducido el concepto de «calidad» de los servicios jurídicos como parte del derecho a la defensa: «El derecho de defensa comprende la prestación de asistencia letrada o asesoramiento en Derecho y la defensa en juicio, que garanticen la calidad y accesibilidad del servicio. Para ello, los profesionales de la abogacía seguirán una formación legal continua y especializada según los casos».

El último inciso admite, a mi juicio, formación técnica en el uso de IAs generativas y modelos de lenguaje natural, como parte de la adaptación natural de la profesión de la abogacía a los nuevos medios técnicos disponibles. Pero no termina ahí, pues el manejo de la herramienta es tan indispensable como un uso ético de la misma, compatible con que la prestación de asesoramiento en Derecho «garantice la calidad» del servicio. Como conclusión lógica, cabe proponer cabalmente que un escrito jurídico por su contenido, ya sea judicial o extrajudicial, está sujeto a este estándar de calidad que enuncia la norma. Dicho con otras palabras: el justiciable es acreedor de este derecho a una asistencia jurídica de calidad, y puede invocarlo frente a su letrado en todo tipo de actuaciones. Obsérvese que las relaciones letrado cliente están también sometidas a la normativa de protección de consumidores y usuarios, tal y como recuerda la Sentencia del Tribunal de Justicia 15 de enero de 2015 (asunto C-537/2013 (LA LEY 19/2015), Birutė Šiba); o la STS 121/2020, de 24 de febrero (LA LEY 4932/2020), Sala de lo Civil (rec. 3164/2017).

Asimismo, este precepto es aplicable no solo a las actuaciones forenses: escritos de demanda, contestación, recursos, aclaración, etc., compatibles con la expresión «defensa en juicio». Es también aplicable al «asesoramiento en derecho», que la propia norma enuncia antes que el propio ejercicio forense. Por tanto, puede invocarse también frente a la redacción letrada de contratos, requerimientos de pago, intimaciones al deudor, elaboración de acuerdos extrajudiciales, cuadernos particionales, y cualquier otro documento susceptible de generarse total o parcialmente mediante IA.

Este art. 8 LODD 5/2024 (LA LEY 25554/2024) debe ser interpretado de forma conjunta con lo dispuesto en el 4.1 de la misma norma en lo ya mencionado anteriormente, de tal manera que el «derecho a recibir la asistencia jurídica adecuada» se complementa con la exigencia de «calidad del servicio». A ello debemos sumar el contenido del art. 19, que fija los «Deberes de actuación de los profesionales de la abogacía», donde se establece un claro punto de conexión entre las leyes aplicables a la profesión y los deberes deontológicos. El apartado 1º dispone: «Los profesionales de la abogacía guiarán su actuación de conformidad con la Constitución Española (LA LEY 2500/1978) y las leyes, con la buena fe procesal y con el cumplimiento de los deberes deontológicos de lealtad y honestidad en el desempeño del encargo, con especial atención a las normas y directrices establecidas por los consejos y colegios profesionales correspondientes». Por tanto, están sometidos tanto a exigencias elementales de buena fe procesal (como recordaba el Auto del TSJ de Navarra) del art. 247 LEC (LA LEY 58/2000), como al Estatuto General de la Abogacía Española (Real Decreto 135/2021 (LA LEY 5889/2021)), y los códigos deontológicos de los respectivos colegios profesionales.

¿Tiene derecho el cliente a ser informado de que el letrado usará IA y que, por tanto, su prestación no será únicamente humana? No existe un claro precepto que obligue sin género de dudas a guardar tal nivel de transparencia. En cierto sentido, alberga un razonable parecido con el uso de modelos disponibles en internet y bases jurídicas (demandas, recursos, contratos, etc.), totalmente comunes en el ejercicio profesional y que, aunque conlleve que el escrito no hubiese sido elaborado al 100% por el letrado, tal práctica no implica necesariamente un mal ejercicio, ni tampoco un ejercicio de la profesión insuficientemente transparente. La mala praxis derivaría, en su caso, de la no supervisión y no adaptación a las condiciones y necesidades del cliente, concluyendo en una actuación deficiente y perjudicial para sus intereses (es decir, en terminología de responsabilidad civil, deduciéndose la existencia de un daño efectivamente causado y nexo causal).

Mutatis mutandis, el problema que plantea la IA generativa y el «automation bias» o «sesgo de automatización» es de la misma naturaleza: el exceso de confianza en el contenido que se ha obtenido de otras fuentes, que no ha generado por uno mismo (el letrado) bajo su leal saber y entender. Se trata, por tanto, de la ausencia no solo de la diligencia debida en la supervisión de cualquier texto (que sería un primer escalón elemental y común de toda la sociedad frente al «sesgo de automatización»), sino del celo y pericia técnico-jurídica que cabe esperar del abogado en el ejercicio de su profesión colegiada. En el primer nivel, podríamos hablar de un comportamiento negligente genérico, aplicable a cualquier tipo de obligación, consistente en confiar y no revisar el contenido generado por la IA. Pero, en este nivel segundo nivel, cualificado, se supera la mera negligencia, pues se falta a la relación de especial confianza existente entre cliente y abogado, y porque implica la afectación de un derecho fundamental para el ciudadano. Si quien debe garantizar su derecho a la defensa no vela por ella al nivel del derecho fundamental del que se trata, la indefensión es doble.

Código Deontológico de la Abogacía Española (CDAE), aprobado por el Consejo General de la Abogacía Española en 2019, en su artículo 4 regula los principios de confianza e integridad. Su apartado 1º establece que la: «relación con el cliente se fundamenta en la recíproca confianza y exige una conducta profesional íntegra, honrada, leal, veraz y diligente». No parece descabellado afirmar que carece de la debida integridad, lealtad, veracidad y diligencia un escrito presentado al albur de la inteligencia artificial, sin una adecuada supervisión (a mayores, con la firma propia). El segundo apartado refuerza este vínculo de confianza, cuya expectativa es razonable para el cliente, pues es justiciable y acreedor tanto del derecho a la tutela judicial efectiva del art. 24.1 CE (LA LEY 2500/1978), como de la garantía del art. 8 LODD 5/2024 (LA LEY 25554/2024) antes mencionado. De acuerdo con el tenor literal de este art. 4.2º del CDAE: «Es obligación no defraudar la confianza del cliente y no defender intereses en conflicto, sean propios o de terceros». La segunda parte del precepto no es invocable en esta materia, pero la primera sí: «es obligaciónno defraudar la confianza del cliente». Basta con imaginar la reacción de un cliente, cuando su abogado debiera notificarle una resolución donde el tribunal alerta de un error tan vergonzante como el acaecido en el caso de referencia en Navarra, donde se invocó normativa de otro país (Colombia) sin supervisión alguna. A modo de corolario sobre la problemática de las relaciones abogado-cliente que el «sesgo de automatización» puede generar (a la sazón, con relevancia disciplinaria deontológica), vale la pena recuperar el artículo 12.8 CDAE, relativo a «Relaciones con los clientes». Dispone que: «Se asesorará y defenderá al cliente con el máximo celo y diligencia asumiéndose personalmente la responsabilidad del trabajo encargado sin perjuicio de las colaboraciones que se recaben.» Pues bien, resulta sencillo colegir que limitarse a copiar-pegar es un flagrante incumplimiento del «máximo celo y diligencia»; y, por supuesto, deberá el letrado asumir «personalmente la responsabilidad del trabajo», lo que, cabalmente, cabe deducir que se refiere a responsabilidad civil (en su caso) y deontológica.

Al tratarse de un código deontológico de 2019, no existen referencias expresas a los modelos de lenguaje natural utilizados por las inteligencias artificiales generativas disponibles hoy en día. Sin embargo, una atenta lectura del artículo 21, revela una más que razonable aplicación al caso que aquí nos ocupa. De un lado, el apartado 1º, establece un deber general de aplicación de todas las normas deontológicas en cualesquiera contextos tecnológicos: «El uso de las tecnologías de la información y la comunicación no exime de cumplir las normas deontológicas que regulan la profesión ni las obligaciones que imponen las reguladoras de la sociedad de la información». El contenido del precepto parece totalmente compatible con el uso de LLMs en sí mismos, y, en particular, compatible con la quiebra de los artículos 4 y 12.8 anteriormente citados, cuando el letrado omite cualquier tipo de supervisión sobre el texto escrito por la máquina autónomamente.

Además de lo anterior, la mayor parte del peso específico de este artículo 21, relativo al uso de las nuevas tecnologías en la abogacía, se encuentra dirigido a la comunicación con el cliente, y a la salvaguarda del debido celo en el secreto de las mismas. Así, su apartado 2º: «Se debe hacer uso responsable y diligente de la tecnología de la información y la comunicación, debiendo extremar el cuidado en la preservación de la confidencialidad y del secreto profesional». Este precepto también puede suponer una violación de los principios deontológicos de la profesión. Obsérvese que la información que se escribe en el «prompt» o «instrucción» que se emite hacia el servicio de inteligencia artificial, es una cadena de texto que se envía hacia los servidores de la compañía responsable. Esa cadena de texto puede contener nombres y apellidos o datos personales que estarían siendo objeto de una transmisión a un tercero, además de, en su caso, una remisión a un país no parte de la Unión Europea. Por ejemplo, si es Chat GPT, la petición será procesada por centros de Microsoft (Azure) contratados por Open AI, en Estados Unidos (no existe confirmación por parte de la compañía de la ubicación exacta, y no debe descartarse que pudieran estar repartidos o replicados en diversos CPDs). Por el contrario, si es Deep Seek, el envío de información se estaría efectuando a China. ¿Es compatible con estos hechos la dicción literal del artículo, cuando utiliza expresiones tales como «uso responsable y diligente», que «extreme el cuidado» y la «confidencialidad y el secreto profesional»?

A favor, cabría argumentar que el uso de plataformas de almacenamiento en la nube por parte de los despachos es una práctica totalmente habitual que, por el momento, no parece haber generado ningún tipo de incompatibilidad. La ubicación de los servidores en territorio, siempre y cuando la información permanezca dentro del territorio de la Unión Europea, o se encuentre en cumplimiento del Transatlantic Data Privacy Framework (TADPF) de 2023, que sustituye al malogrado Privacy Shield, tras la sentencia del Tribunal de Justicia de la Unión Europea en el caso Schrems II (C-311/18, de 16 de julio de 2020, por la que se anula la Decisión de Ejecución (UE) 2016/1250 de la Comisión, de 12 de julio de 2016 (LA LEY 12686/2016)). En contra, cabria argumentar que supone una revelación de datos a terceros, además de que, al procesarse el texto mediante algoritmos o, más genéricamente, automatismos, el cliente podría invocar a su favor el derecho a recibir información significativa sobre la lógica aplicada a la toma de decisiones automatizadas que expresamente reconocen los arts. 13.2.f) (LA LEY 6637/2016); 14.2.g); y 15.1.h) RGPD (LA LEY 6637/2016) al interesado.

III. El artículo 231 de la LEC y sesgo de automatización: ¿cómo deben reaccionar el Tribunal y el LAJ ante un defecto en los actos procesales de las partes generado por IA?

Si bien esta pregunta es de profundo calado, pues afecta de forma determinante a la ordenación del proceso, y podría justificar por sí misma un artículo completo, no podemos dejar de plantear esta posibilidad y dejar abierta la puerta, para futuros desarrollos (propios o de otros autores).

Es totalmente común en la práctica de la abogacía la invocación del art. 231 de la LEC (LA LEY 58/2000) (que conecta naturalmente con el 11 y 243 LOPJ (LA LEY 1694/1985), especialmente, con su apartado 4º, relativo a la subsanación), en muchas ocasiones, de forma genérica y en virtud de Otrosí, al final de la demanda. El citado precepto tiene por finalidad otorgar la posibilidad de subsanación frente a actuaciones procesalmente defectuosas. Su tenor literal es el siguiente: «El Tribunal y el Letrado de la Administración de Justicia cuidarán de que puedan ser subsanados los defectos en que incurran los actos procesales de las partes». ¿Deben entonces implicarse, no solo el LAJ sino «el tribunal», si detectan defectos procesales que puedan derivar del sesgo de la automatización y el uso de IA generativa? Si tenemos en cuenta que el acreedor del derecho al proceso debido y a la tutela judicial efectiva es el ciudadano (no el abogado, que es su transmisor o brazo ejecutor), cabría argumentar que sí, que debe existir un grado de celo ante dichas actuaciones, al menos equivalente al resto de actuaciones en las que deben intervenir. Sobre este aspecto no existe demasiada jurisprudencia, pero, como afirma con acierto GÓMEZ SOLER (4) , el quid sobre su aplicación orbita sobre un principio de general aplicación: evitar que el excesivo rigorismo formal se convierta en una barrera artificial para el ejercicio de un derecho fundamental, como es la tutela judicial efectiva del art. 24.1 CE (LA LEY 2500/1978) (vid.SSTC 17/1985, de 9 de febrero (LA LEY 168/1985); 157/1989, de 5 de octubre (LA LEY 2872/1989); 108/2000, de 5 de mayo (LA LEY 8945/2000); o 12/2003, de 28 de enero (LA LEY 1201/2003)).

El derecho al proceso debido afecta a todas las partes de un pleito, no solo a la parte que comete el error. Si ponemos en conexión este art. 231 LEC (LA LEY 58/2000) con el art. 243 LEC (LA LEY 58/2000) (buena fe procesal), podemos concluir que la actuación del tribunal o del letrado de la administración de justicia a la hora de «cuidar» que «puedan ser subsanados los defectosen que incurran los actos procesales de las partes», es de mínimos, y se limita a cuestiones procesales, no de fondo. Dicho de otra manera, y sobre el ejemplo del Auto 2/2024 de 4 de septiembre del TSJ de Navarra (LA LEY 303542/2024): un caso como el que nos atañe excede del celo que cabe exigir en sede del art. 231 LEC. (LA LEY 58/2000) Un error como es el de invocar en el contenido de un recurso una norma no aplicable (bien por pertenecer a otro ordenamiento jurídico, bien por cualquier otro defecto, como estar derogada, o el problema de las alucinaciones en LLMs de IA (5) ) en cuanto al fondo del asunto, corresponde a la pericia y a las obligaciones de medios del abogado. Únicamente podría caber supervisión del art. 231 LEC (LA LEY 58/2000) en actos procesales, con errores de una entidad muy limitada. En apretada síntesis, siguiendo el tenor literal de la STS 298/2016 de 5 de mayo de 2016 (LA LEY 43300/2016), FJ 13, apartados 1º y 3º: «El Tribunal Constitucional ha entroncado la subsanación de este tipo de defectos con las exigencias derivadas del derecho a la tutela judicial efectiva, que impide que las pretensiones de un litigante sean rechazadas con base en un defecto subsanable.»

Existen algunas sentencias del Tribunal Constitucional cuya existencia debe advertirse. Y ello para ser interpretadas en su justo sentido. Las SSTC 34/2020 (de 24 de febrero (LA LEY 10036/2020), FJ 3) y 55/2019 (de 6 de mayo (LA LEY 69991/2019), FJ 5), contienen el siguiente párrafo literal que comparten:

«la modernización de la administración de justicia mediante la generalización en el uso de las nuevas tecnologías no constituye un fin en sí mismo sino un instrumento para facilitar el trabajo tanto del órgano judicial, como de los justiciables que actúan en los procesos a través de los profesionales designados o directamente por ellos cuando esto último es posible. No pueden en ningún caso erigirse tales medios tecnológicos en impedimento o valladar para la obtención de la tutela judicial a la que todas las personas (art. 24.1 CE (LA LEY 2500/1978)) tienen derecho

Una lectura descontextualizada podría llevar a pensar que ante los avances de las nuevas tecnologías (como podría ser el uso de IA y los errores cometidos por esta, en ausencia de supervisión por el abogado por exceso de confianza o sesgo de la automatización), sí admite subsanación en caso de error por vía del art. 231, si un «medio tecnológico» supone un «impedimento (…) para la obtención tutela judicial efectiva». Pero estas sentencias se refieren no a errores de contenido, sino informáticos en la plataforma de LexNet. Por tanto, estas SSTC y estos extractos no son invocables para defender un papel más proactivo de Letrados de la Administración de Justicia o jueces en la detección de esta clase de errores; ni un desplazamiento de la naturaleza de esta responsabilidad hacia su esfera de actuación. Esto último sería inasumible, en tanto que producir texto mediante IA generativa es tan sencillo como pulsar un botón. Sin embargo, la labor de supervisión es ardua, y recae en un grupo muy limitado de personas (LAJs y jueces), lo que generaría un desequilibrio tan insalvable (dada la escasez de medios y de tiempo material) como injusto para ellos (obsérvese la gran irresponsabilidad que supondría poder presentar «cualquier cosa» sin supervisión y delegar las labores de filtro en LAJs y jueces).

IV. Conclusiones

En conclusión, la adopción de la IA generativa en la abogacía constituye un avance inevitable que ofrece importantes beneficios en términos de eficiencia y acceso a la información, lo que no excluye en modo alguno el trabajo de supervisión y contraste sobre los textos producidos por la misma.

Su utilización sin una supervisión, confiando ciegamente en su «inteligencia», se denomina «automation bias», expresión anglosajona de infausta traducción como «sesgo de la automatización». Esta ausencia de revisión por exceso de confianza es incompatible con los deberes de diligencia y buena fe del abogado que se sirve de la IA para mejorar su productividad, y puede derivar en errores que vulneren el derecho fundamental a la tutela judicial efectiva. El sesgo de automatización podría incumplir el «Derecho a la calidad de la asistencia jurídica» que consagra el art. 8 de la reciente LODD 5/2024 (LA LEY 25554/2024), y del que es acreedor el justiciable. Quiebra, asimismo, la confianza depositada en el profesional. En este sentido, cabe afirmar que forma parte de las obligaciones del abogado la revisión crítica de los contenidos generados por la tecnología, ya que es el responsable último de lo que se presenta ante el juzgado. Tales incumplimientos pueden ser susceptibles de generar responsabilidad civil (si afecta al devenir del pleito, y sin posibilidad de subsanación vía art. 231 LEC (LA LEY 58/2000)), y deontológica, ante su correspondiente Colegio de Abogados.

El Auto 2/2024 del TSJ de Navarra constituye una sentencia paradigmática, pero también un aviso a navegantes, tal y como el propio tribunal expresa en su fundamento jurídico 4º, último párrafo: «(…) sirviendo la presente —quizá— de advertencia de las implicaciones legales, deontológicas y éticas que puede plantear el uso descuidado de las nuevas tecnologías».

La formación técnica y ética en el uso de estas herramientas se erige como un pilar fundamental para evitar la mala praxis. Solo así se garantizará que la innovación sirva de complemento y no de sustituto de la pericia profesional. En última instancia, el desafío consiste en equilibrar el potencial de la IA con el compromiso ineludible de proteger los derechos fundamentales de los ciudadanos; a la vez que no se convierte en una manera fácil de generar volumen de escritos —defectuosos o no— que conduzcan a una sobrecarga o incluso al colapso del sistema judicial.

Scroll