Cargando. Por favor, espere

Portada

Hasta ahora, se ha hablado mucho de cómo la inteligencia artificial (IA) puede replicar e incluso profundizar los sesgos de machismo y discriminación hacia las mujeres, reflejando prejuicios que en muchos casos prevalecen en la sociedad o en el uso del idioma. Pero no todo está perdido, de hecho, este tipo de respuestas se pueden corregir si se aplica una serie de criterios basados en políticas de inclusión y en los derechos que reconoce la legalidad vigente en los procesos de entrenamiento de esta tecnología. Diversas organizaciones señalan cuál es el camino que hay que seguir para que la IA puede ser una aliada de los derechos de las mujeres. Y esto pasa por controles y supervisión tanto de los métodos de entrenamiento como de los datos.

Los sistemas de IA generativa pueden proponer respuestas en las que se asocian determinadas habilidades a los hombres y otras a las mujeres. Por ejemplo, se suele hablar de un médico y de una enfermera y no de una médica y de un enfermero. ¿A qué se debe esto? Pues a que las máquinas utilizan el lenguaje humano, que contiene sesgos, para aprender y trabajar.

Los problemas de desigualdad de género no solo pueden perpetuarse, sino que también pueden agravarse dependiendo de la calidad de los datos que se utilicen para entrenar la IA. Y no es baladí: un 44% de estos sistemas de inteligencia artificial generativa presenta sesgos sexistas, según un análisis a 133 plataformas basadas en esta tecnología que ha publicado el Centro Berkeley Haas de Equidad, Género y Liderazgo. Además, en el 25% los resultados combinaban prejuicios sexistas y raciales de manera simultánea. A ello se añade otro obstáculo que influye en esta perspectiva: poco menos de un tercio de las personas que trabajan en el ámbito de la IA son mujeres, tal como señala el Informe Brecha Global de Género de 2023.

Las luces rojas se encienden si tenemos en cuenta que el uso de esta tecnología es creciente en la Unión Europea. Según datos de Eurostat, en 2024 el 11,21% de las pequeñas empresas, el 20,97% de las medianas y el 41,17% de las grandes compañías utilizaron sistemas de IA para el desarrollo de sus actividades. Al extenderse su manejo en las distintas industrias y organizaciones, también es más elevado el riesgo de que se están reproduciendo prejuicios, privilegios y favoritismos en la información que se gestiona con estas herramientas y en el proceso de toma de decisiones corporativas.

De todo ello se concluye que lo relevante es que las distintas opciones de IA se entrenen con datos de calidad, que contemplen la realidad tanto de hombres como de mujeres. El error consiste en desarrollar esta innovación desde una única perspectiva.

¿Qué es el sesgo algorítmico?

Tal como recoge la Agencia Española de Protección de Datos (AEPD) en el documento “Requisitos para Auditorías de Tratamientos que incluyan IA”, el sesgo algorítmico se produce cuando un determinado componente IA produce distintos resultados respecto de los sujetos dependiendo de su pertenencia de a un colectivo, de manera que deja en evidencia la existencia de un prejuicio subyacente a ese grupo.

¿De dónde procede el sesgo algorítimo? Hay distintas fuentes, Por una parte, está el sesgo en los datos de entrenamiento, pero también puede estar vinculado a la metodología de entrenamiento, por ejemplo, en el caso en que la supervisión misma incluye el sesgo. También se puede dar por contar con un modelo demasiado simplista (underfitting), por una aplicación del componente IA en un tratamiento o un contexto que no es adecuado, entre otros casos.

Los datos son clave

El corazón de la inteligencia artificial son los datos. En definitiva, se trata de la materia prima con la que aprende a realizar determinadas acciones o a ofrecer las respuestas y soluciones para los retos y preguntas que se le plantean. Si la información que utiliza está sesgada, simplemente dará por hecho que la realidad es así, tal como la muestran estos inputs. Por lo tanto, no es de extrañar que finalmente replique las desigualdades y la discriminación que se vive en el entorno.

Los sesgos pueden ser conscientes y, por lo tanto, más sencillos de identificar. Son los que se pueden corregir de manera más obvia. Pero también están los inconscientes, que pueden llevar a los sistemas a ofrecer respuestas tendenciosas y marcadas por prejuicios. Los sesgos de género de la IA reproducen el trato diferente que la sociedad da a las personas dependiendo de si son hombres o mujeres.

Si no se combaten estos prejuicios, la IA podría, por ejemplo, dar respuestas sobre diagnósticos de determinadas enfermedades en base a los síntomas que afectan más a hombres o a mujeres, en detrimento de la otra mitad de la población. Por otra parte, también se han documentado sesgos a la hora de seleccionar candidatos para determinados puestos de trabajo.

La IA, una aliada para los derechos de las mujeres

La velocidad del cambio social va mucho más lenta que la de los desarrollos tecnológicos. De ahí que sea necesario poner remedio a partir de los datos que se utilizan para nutrir estos sistemas de IA, de modo que, a través de su uso, también se den avances en el respeto de los derechos de las mujeres y en la construcción de una sociedad más igualitaria.

Entre las iniciativas que se pueden impulsar está el fomento de la participación de más mujeres en los desarrollos de la IA generativa. Esto supone, por una parte, incentivar que las niñas y mujeres accedan a estudios y carreras relacionadas con la investigación científica y desarrollo tecnológico, así como a puestos de responsabilidad en las empresas que crean, entrenan y ofertan estas herramientas innovadoras.

Por otra parte, también se deben reforzar los testeos y pruebas que certifiquen la idoneidad y seguridad de los sistemas de IA con el fin de identificar y corregir los sesgos y estereotipos que pueden tener los chatbots. En este sentido, la AEPD señala una serie de controles que se pueden implementar para tenerlos bajo control y corregirlos. Son los siguientes:

Definir procedimientos para identificar y eliminar, o al menos limitar, los sesgos en los datos utilizados para entrenar el modelo.

Verificar que en los datos de entrenamiento usados como entrada al modelo no existen sesgos históricos previos. Si existen, se debe optar por otra fuente de datos de entrenamiento que no los contenga, o bien realizar una limpieza y depuración adecuadas para su normalización.

Adoptar medidas para evaluar la necesidad de disponer de datos adicionales de cara a mejorar la precisión o eliminar posibles sesgos.

• Implementar mecanismos de supervisión humana para controlar y asegurar la ausencia de sesgos en los resultados. Como ejemplo, se cita el caso en que, para controlar que un componente no discrimina por razones de género, aunque esta variable no se utilice durante el entrenamiento, debe haberse recogido información sobre el género de las personas que componen la base de datos para verificar si el sistema se comporta de uno u otro modo en función del valor.

• Implementar mecanismos para que los interesados puedan solicitar la intervención humana, expresar su punto de vista e impugnar los resultados derivados del empleo de algoritmos automatizados en la toma de decisiones.

Scroll