Cargando. Por favor, espere

Portada

Margaret Mitchell.- Los modelos lingüísticos son peores de lo que pensábamos en cuanto al sesgo estereotipado… muchísimo peores. No solo reflejan estereotipos problemáticos, sino que te sumergen en un profundo fanatismo: responden a estereotipos básicos con generalizaciones despectivas aún peores, introducen nuevos sesgos y respaldan puntos de vista extremistas con pseudociencia, pseudohistoria y referencias ficticias a artículos históricos y científicos revisados por pares.

Estas son las principales conclusiones que se desprenden del informe “SHADES: Towards a Multilingual Assessment of Stereotypes in Large Language Models” (SHADES: Hacia una evaluación multilingüe de estereotipos en grandes modelos lingüísticos), elaborado por más de 50 expertos en lingüística y derecho de todo el mundo.

El resultado ha sido la presentación de SHADES, un nuevo conjunto de datos multilingüe (15 idiomas) y multicultural, diseñado para analizar estereotipos en modelos lingüísticos generativos.

Los resultados demuestran un comportamiento significativamente diferente según el modelo, el idioma y el tipo de sesgo, lo que establece un claro objetivo de referencia para un manejo más consistente de los estereotipos problemáticos. El enlace al conjunto de datos está aquí: https://huggingface.co/datasets/LanguageShades/BiasShades (el acceso está restringido debido a su sensibilidad; se requiere solicitud).

El artículo que describe el conjunto de datos y los resultados iniciales se presentó a principios de mayo en la Conferencia Anual del Capítulo de Naciones de las Américas de la Asociación para la Lingüística computacional (Association for Computational Linguistics, NAACL) que tuvo lugar en Alburquerque (México), disponible aquí: https://openreview.net/forum?id=zSwnz6BsDa#discussion.

Los puntos más relevantes del informe destacan:

• Los modelos justifican estereotipos con pseudociencia, pseudohistoria y hechos sociales falsos. El lenguaje es indistinguible de los hechos reales, y las referencias son indistinguibles de las referencias reales. Sin embargo, el contenido promueve puntos de vista extremos basados en prejuicios, no en la realidad.

• Los modelos responden de forma diferente al mismo estereotipo presentado de distintas maneras, donde algunas indicaciones para el modelo tienen mucha más probabilidad de amplificar puntos de vista despectivos que otras. Por ejemplo, en inglés, preguntar por qué un estereotipo es cierto hace que los modelos evadan dudas y, a veces, lo reconozcan como tal. Pero simplemente preguntar directamente con el estereotipo, como se haría en una conversación, o pedir una lista de puntos que lo respalden, resulta en resultados de los modelos que respaldan puntos de vista despectivos e incluso proporcionan generalizaciones maliciosas relacionadas.

• De igual manera, los modelos "pivotan" desde indicaciones con estereotipos falsos que no se reconocen realmente para propagar estereotipos relacionados que sí se reconocen.

Además, se añade que:

• Los modelos son más peyorativos cuando los estereotipos se expresan con palabras que sugieren un encuadre positivo;

• Los modelos que no han recibido una formación exhaustiva en un idioma determinado propagarán incluso estereotipos muy negativos en ese idioma;

• Los estereotipos de un idioma o cultura pueden expresarse mediante modelos que generan texto en otro idioma.

Gracias a los resúmenes de IA y los chatbots, los modelos lingüísticos están ahora en una posición ideal para modificar radicalmente la percepción que las personas tienen de quienes las rodean, llevándolas hacia creencias reduccionistas, prejuiciosas y falsas. Sin embargo, existen soluciones al problema, si nos preocupamos lo suficiente como para abordarlo.

Scroll