Cargando. Por favor, espere

Portada

Mucho se ha hablado de que la inteligencia artificial reproduce tiene una enorme facilidad para aprender y reproducir los peores comportamientos del ser humano: machismo, racismo, discriminación, etc. Sin embargo, el algoritmo tiene una cara amable y, además, con un claro impacto social. Eso sí, siempre que se le entrene de manera adecuada. Y es que varias investigaciones confirman que la IA puede ayudar a detectar casos de violencia de género. La tecnología puede ser útil para terminar con esta lacra que, desde 2003, año en que se empezaron a contabilizar, acumula casi 1.300 mujeres asesinadas por sus parejas o exparejas.

Evitar que la IA profundice las desigualdades de cara a las mujeres no es algo imposible. Hay varias iniciativas e investigaciones que demuestran que, con los ajustes necesarios basados en un entrenamiento adecuado y en datos de calidad, la inteligencia artificial puede ser una aliada para las mujeres, especialmente para las más vulnerables, que son víctimas de casos de violencia de género.

Si esta tecnología se centra en la prevención, al detección temprana y en el apoyo, puede resultar de enorme utilidad. Existen algunas herramientas diseñadas para atajar la violencia de género. Una de ellas es un dispositivo inteligente llamado Bindo que ha desarrollado el Instituto Universitario de Estudios de Género, de la Universidad Carlos III de Madrid con el diseño del equipo UC3M4Safety. Se puede llevar de manera discreta, como una pulsera o un colgante, que va conectado a través de bluetooth con el móvil. A través de un monitoreo continuo de variables como el pulso, la temperatura, la piel, los cambios de voz o el sonido ambiente, este prototipo tiene la capacidad de detectar emociones y situaciones de riesgo.

El plus que aporta Bindi es que el dispositivo tiene la posibilidad de actuar con autonomía, de modo que puede generar alertas sin necesidad de que la persona que lo porta genere una acción voluntaria, algo que puede ser enormemente útil si la víctima tiene a quedar en shock o a experimentar una parálisis cuando está delante de su maltratador. El sistema envía una localización a unos contactos integrados en un “círculo de protección” elaborado previamente por la mujer y también se integra con los sistemas de protección policiales. Por otra parte, la alta fiabilidad de los datos que utiliza se pueden configurar como prueba judicial en caso de que las actuaciones sean constitutivas de delito.

Datos para detectar agresores y víctimas

Una investigación de la UOC muestra que la recopilación y el análisis de múltiples variables y de datos sobre violencia de género provenientes de distintas bases, como las de los juzgados, la policía, redes sociales y otros datos públicos, pueden contribuir a conformar perfiles de posibles agresores y de posibles víctimas. Con esta información, se podrán crear modelos de aprendizaje automático capaces de detectar potenciales riesgos de violencia de género a partir de casos ocurridos con anterioridad.

Son parte de las conclusiones de “Arquitectura de un sistema de ayuda a la prevención de casos de violencia de género en España”, un trabajo final del máster universitario de Ciencia de Datos (Data Science) de dicho centro universitario, elaborado por Javier Plo Moreno. Según el autor, se trata de identificar un conjunto de atributos o características que, según investigaciones en sociología, psicología y psiquiatría, son determinantes para que alguien pueda convertirse en agresor o en víctima en un momento dado. “La información sobre dichos atributos debería recopilarse cuando se produce un caso", explica.

El sistema tiene por objetivo “predecir” futuros casos y obtener información para definir, por ejemplo, estrategias de concienciación y vigilancia en zonas donde se hayan detectado más perfiles de riesgo, con actuaciones como el aumento de la vigilancia policial o incrementando la atención psicológica.

Con todo, estos sistemas deben cumplir con las normas que fija el Reglamento de Inteligencia Artificial (RIA) (LA LEY 16665/2024), que establece límites al perfilado.

Iniciativas internacionales con IA

Existen iniciativas a nivel internacional como la Feminist AI Research Network (Red de Investigación Feminista de IA, FAIR por sus siglas en inglés), que impulsa el Centro Internacional de Investigaciones para el Desarrollo (IDRC), con sede en Canadá. Está integrada por una red global de científicos, economistas y activistas que trabajan para que las tecnologías disruptivas como la IA sea más inclusiva, mediante proyectos que identifican y corrigen los prejuicios digitales.

Dentro de estos proyectos, destaca AymurAI, que busca incrementar los escasos datos sobre violencia de género que existe en el sistema judicial de la ciudad de Buenos Aires, Argentina. Reconocida por la UNESCO en su Global Toolkit on AI and the Rule of Law for the Judiciary, permite extraer información relevante de las sentencias sobre este tipo de delitos, con garantías de anonimato y verificación, para que esté disponible a nivel público. Actualmente se está trabajando en adaptarla a otros países del ámbito Latinoamericano, empezando por México.

IA que refuerza el sistema VioGén

La ministra de Igualdad, Ana Redondo, ha avanzado que su departamento iniciará “en breve” un proyecto piloto que incorporará la IA al Sistema de Seguimiento Integral en los casos de Violencia de Género (VioGén).

Este sistema, que empezó a operar el 26 de julio del 2007, tiene varios objetivos, como coordinar a las distintas instituciones públicas con competencias en materia de violencia de género, integrar la información de interés, predecir el riesgo, realizar seguimiento y establecer medidas de protección a las víctimas en todo el territorio nacional; emitir avisos, alertas y alarmas con notificaciones automatizadas; y crear una red que facilite el seguimiento y protección de forma rápida, integral y efectiva de las mujeres maltratadas y de sus hijos e hijas. Según la ministra Redondo, esta herramienta puede ayudar a la detección de los casos de violencia de género antes de que se produzcan desenlaces fatales.

En definitiva, la tecnología no es ni mala ni buena en sí misma. Los sesgos se pueden identificar y corregir. Si se dan estos pasos, las herramientas basadas en IA generativas tienen un enorme potencial de impacto positivo en la resolución de problemas legales y sociales graves como es la violencia de género.

Scroll