María del Carmen Romero Ternero
Profesora Titular de la Universidad de Sevilla
La Inteligencia Artificial es desarrollada mediante algoritmos que, por ahora, son diseñados y programados por personas. Los algoritmos, por tanto, pueden no ser neutrales si los y las profesionales no realizan buenas prácticas y si no se diseña pensando en el impacto de las personas que posteriormente utilizarán esa solución inteligente. A la hora de desarrollar soluciones tecnológicas en general y basadas en Inteligencia Artificial en particular, es necesario aplicar por defecto diseño centrado en la persona. ¿A qué personas dirigimos esta solución? ¿Con qué propósito? ¿Debe ser una solución universal o se trata de una solución ofrecida a un sector delimitado de la población?
Cuando desarrollamos IA responsable estamos poniendo el foco en garantizar que la solución resultante será confiable, ética y respetuosa con los derechos fundamentales de las personas a las que va dirigidas.
El uso masivo de datos personales en este contexto sigue generando preocupaciones serias sobre la privacidad, y prueba de ello es el esfuerzo realizado por la Comisión Europea en los últimos años para el desarrollo de una regulación específica de los productos basados en IA que van a mercado. El reglamento AI Act propicia un nuevo escenario que el sector productivo desde luego no puede obviar. En el ámbito del aprendizaje automático, los algoritmos requieren grandes cantidades de datos para su entrenamiento, lo que incrementa el riesgo de vigilancia, manipulación y discriminación. Los datos con los que se entrenan los algoritmos, por tanto, deben ser cuidadosamente seleccionados para evitar posibles sesgos. Si los datos están sesgados, las predicciones y clasificaciones también lo estarán, perpetuando desigualdades de género, entre otras.
Aunque el RGPD ofrece un marco sólido para garantizar la privacidad digital, ya sabemos que su aplicación en el ámbito de la IA enfrenta retos complejos, especialmente en términos de la explicabilidad de los algoritmos y de la gestión del consentimiento informado. La complejidad técnica de muchos sistemas de IA dificulta que las personas que usan la tecnología comprendan cómo se procesan sus datos y cómo se toman decisiones que pueden afectar a sus vidas.
Desde una perspectiva de género, proteger los datos personales implica evitar que las plataformas digitales utilicen información sensible para reforzar estereotipos o discriminar. Por ejemplo, los algoritmos de publicidad no deberían orientar anuncios basándose en roles de género tradicionales, como en aquel caso en el que Facebook (ahora Meta) dirigió anuncios de empleos bien remunerados exclusivamente a hombres, perpetuando desigualdades económicas. El impacto es aún más preocupante cuando se combinan el género con otras variables como la etnia, la clase social o la discapacidad. Esta interseccionalidad no solo amplifica las desigualdades, sino que refuerza estructuras de poder que quienes desarrollamos IA debemos abordar con urgencia. Las comunidades marginadas son las más vulnerables a estos sesgos, lo que hace imperativo adoptar un enfoque inclusivo y justo.
Afortunadamente, la UE ha adoptado diversas iniciativas para integrar la perspectiva de género en la investigación y en el desarrollo tecnológico, tales como el programa Horizonte Europa, que exige la inclusión de la dimensión de género en todas las fases de los proyectos financiados. Esto no solo implica evaluar el impacto de género en los resultados de la investigación, sino también garantizar la paridad en los equipos de trabajo. Por otro lado, la Estrategia Europea para la Igualdad de Género 2020-2025 promueve el uso de la tecnología como herramienta para reducir las desigualdades. Entre sus objetivos se encuentra el desarrollo de estándares éticos para la IA, asegurando que los sistemas no perpetúen sesgos ni discriminen a las mujeres. Este enfoque también abarca la capacitación y la educación, fomentando la participación de mujeres en campos como la Ingeniería Informática. Finalmente, otra iniciativa relevante es el recién aprobado Reglamento de Espacio Europeo de Datos de Salud (EHDS) en enero de 2025.
Uno de los objetivos fundamentales del EHDS es permitir el uso de datos sanitarios con fines de investigación y salud pública, bajo condiciones estrictas. Establece, pues, un marco jurídico sólido para la reutilización de datos sanitarios con fines de investigación, innovación y salud pública en pleno cumplimiento de los estrictos criterios de seguridad y acceso a los datos de la UE, los derechos fundamentales y las normas de ciberseguridad. La iniciativa busca crear un ecosistema digital seguro donde los datos de salud puedan compartirse de manera ética y controlada para fomentar la investigación, la innovación y la atención sanitaria personalizada. Incorporar la dimensión de género en este espacio puede tener un impacto transformador. Por ejemplo, el análisis de datos desagregados por género permitirá identificar y abordar desigualdades en el acceso a servicios médicos, en la representación de mujeres en estudios clínicos y en los tratamientos diseñados. Esto no solo mejorará los resultados de salud para las mujeres, sino que también garantizará que los avances médicos beneficien a todas las personas por igual. Además, el EHDS ofrece una oportunidad única para aplicar principios de transparencia y explicabilidad en el uso de IA en medicina. Los sistemas de IA diseñados dentro de este marco podrían ser auditados y regulados para evitar sesgos de género, promoviendo una atención sanitaria más justa e inclusiva. Este enfoque refuerza la idea de que la tecnología, cuando se desarrolla con ética, puede ser una herramienta poderosa para la equidad.
Para superar estos desafíos de los que hablamos, es esencial adoptar un enfoque de diseño centrado en la persona que incorpore la perspectiva de género desde el inicio. Esto podría incluir auditorías de sesgos, en las que analizar los datos que alimentan a los modelos de IA para evitar que perpetúen desigualdades, composición diversa en los equipos de trabajo, el diseño de sistemas comprensibles y accesibles, para que los usuarios entiendan cómo se utilizan sus datos y puedan tomar decisiones informadas, y la educación en competencias digitales, en la que informar a la población sobre sus derechos en protección de datos y equidad tecnológica.
La IA responsable no solo debe cumplir con la ley, sino también adherirse a principios éticos que prioricen la dignidad humana y la justicia social. Desde la dimensión de género, esto significa reconocer las desigualdades y actuar para reducirlas. La inclusión de una perspectiva ética desde las primeras etapas del desarrollo de IA es crucial para evitar que la tecnología se convierta en una herramienta de exclusión.
Los gobiernos, las universidades y las empresas tenemos un papel clave en este proceso. Debemos promover un entorno tecnológico inclusivo y justo, apoyando políticas que impulsen investigaciones y desarrollos que respeten los derechos fundamentales. Las instituciones educativas, en particular, podemos desempeñar un papel vital formando a futuras y futuros profesionales que entiendan la importancia de la ética en la IA.
Por otro lado, el sector privado también tiene una gran responsabilidad. Las empresas tecnológicas deben comprometerse a diseñar productos y servicios que respeten los derechos de las personas y promuevan la equidad. Esto incluye no solo cumplir con las regulaciones existentes, sino también liderar con el ejemplo adoptando mejores prácticas en el puesto de trabajo.
En un momento histórico en el que la tecnología avanza más rápido que nuestra capacidad para regularla, debemos priorizar principios éticos que garanticen un futuro más equitativo para todos y todas. Este no es solo un deber técnico, sino un imperativo moral que debemos asumir.