Cargando. Por favor, espere

Portada

La tecnología cambia nuestra manera de trabajar y también la forma como utilizamos el lenguaje. Un ejemplo claro es el de la palabra alucinación, cuyo significado ha variado en los últimos años. Aunque el diccionario de la Real Academia de la Lengua define alucinación como una “sensación subjetiva que no va precedida de impresión en los sentidos”, al Fundeu reconoce un nuevo uso: “El verbo alucinar, así como el sustantivo alucinación, puede emplearse para referirse a la invención de información errónea por parte de la inteligencia artificial”. Y es que la IA puede inventarse respuestas y provocar errores que pueden tener consecuencias graves en distintos campos profesionales, también en el jurídico.

Las alucinaciones son uno de los numerosos riesgos asociados al uso de la IA. Recientemente el Instituto de Tecnología de Massachusetts (MIT) documentó más de 777 riesgos clasificados en 43 categorías, en colaboración con especialistas de la Universidad de Queensland, el Future of Life Institute, la KU Leuven y la startup Harmony Intelligence. Entre ellos, además de las alucinaciones, estaban los vinculados a los ciberataques y a la desinformación.

Además de prácticas como la reproducción de lenguaje discriminatorio, perpetuar estereotipos, filtración de información personal sensible (afectando a la seguridad y a la privacidad de las personas), difusión de bulos y fake news, instrumentalización para causar daños a gran escala, promoción de comportamientos cuestionables desde el punto de vista ético, especialmente cuando se considera que la IA es una fuente de información fiable, o incluso el aprovechamiento por parte de agentes malintencionados de las vulnerabilidades de esta tecnología para explicar el consumo energético y provocar fallos en los sistemas.

No son pocos los casos de abogados que han utilizado ChatGPT para elaborar sus escritos y citar jurisprudencia, pero a posteriori se comprobó que las sentencias que citaban no se podían encontrar porque, sencillamente, no existían. Pero lo cierto es que los errores o imprecisiones en los resultados que arroja la inteligencia artificial generativa son de diverso tipo: desde datos falsos a información incoherente o directamente inventada. Pero, ¿por qué ocurren?

El fenómeno de la IA alucinante

El origen de las alucinaciones de los modelos de IA está en la manera como procesan los enormes volúmenes de datos que obtienen de distintas fuentes para llevar a cabo su entrenamiento. El problema es que esta información puede ser veraz y confiable, pero también puede incluir contenidos erróneos, falsos o inconsistentes que condicionan las respuestas que genera el sistema: los resultados pueden combinar datos de fuentes correctas con otros conceptos incorrectos. Las respuestas confusas o directamente falsas suponen un riesgo elevado para determinados sectores que exigen un conocimiento más preciso, como es el caso del sector sanitario, el legal, el financiero o el de la información.

A medida que las empresas van integrando estos sistemas en su día a día para mejorar la eficiencia a través de la automatización de tareas de escaso valor o de procesamiento de textos, el riesgo de que se adopten decisiones en base a alucinaciones de la IA es motivo de preocupación, especialmente cuando se trata de operaciones críticas.

¿Significa esto que los modelos de IA generativa no sirven? No: descartar su uso podría suponer quedar rezagados y desaprovechar una oportunidad para ser más eficientes. Solo hay que tener claro que todo dependerá de la calidad de los datos con las que le enseñemos a responder. Si las fuentes con las que se entrena son públicas y provienen principalmente de la red, también puede utilizar bulos, opiniones sin fundamentar o bromas, sin que sea capaz de discriminar y de filtrar de manera crítica lo que le llega: en principio, todo es válido. De ahí la importancia de contar con datos de calidad y de entrenarla en un entorno seguro.

Datos seguros y verificados

¿Cómo abordar este reto? El dilema se puede resolver mediante una valoración adecuada de las necesidades de la empresa y los posibles casos de uso de esta tecnología en su actividad diaria. De esta manera, la organización determinará qué alcance puede tener la integración de la IA en su operativa y hasta dónde implementarla. Y es que existen distintas soluciones en el mercado, desde las más básicas en las que la IA generativa puede ayudar a hacer resúmenes y a redactar textos, hasta entornos privados “a medida” en los que los usuarios pueden cargar sus propia base documental y de datos con niveles de seguridad elevados y entrenar el modelo, con resultados satisfactorios, siendo capaz incluso de plantear propuestas y posibles soluciones a un conflicto. En estos casos, el riesgo de alucinaciones se minimiza y se reducen las posibles distorsiones.

¿Por qué tiene que ser un entorno seguro? Para garantizar la confidencialidad de los datos y el cumplimiento de la normativa de privacidad que le son aplicables. La infraestructura que alberga estos sistemas también debe dar garantías de solidez.

El gran desafío en la incorporación y avance de esta tecnología en las organizaciones de todo tipo implica resolver una ecuación entre la adoptación de tecnología y el control de riesgos tecnológicos y legales. De ahí que el foco no solo se deba poner en la evaluación de la calidad de los datos que se utilizan, sino también en el desarrollo de políticas de control y supervisión de los sistemas de IA que se integran en los entornos profesionales. La supervisión humana seguirá siendo fundamental.

Scroll