Cargando. Por favor, espere

Para desarrollar una Inteligencia Artificial ética, las empresas deben superar la brecha entre su deseo de actuar éticamente y el seguimiento de esas buenas intenciones

Para desarrollar una Inteligencia Artificial ética, las empresas deben superar la brecha entre su deseo de actuar éticamente y el seguimiento de esas buenas intenciones

  • 9-5-2022 | Carlos Fernández Hernández
  • El informe “AI ethics in action” del IBM Institute for Business Value muestra que clientes, empleados y accionistas no solo esperan que las empresas utilicen la tecnología de forma responsable, sino que lo exigen.
Portada

Carlos B Fernández. La Unión Europea sigue desarrollando la única iniciativa seria de una regulación de las tecnologías de Inteligencia Artificial (IA). Pero, a la espera de que esa normativa alcance su versión final y entre en vigor, y a medida que la adopción de la IA se extiende por multitud de sectores de actividad, también lo hace el imperativo de integrar la ética en esta tecnología.

La razón, como han explicado, entre otros divulgadores pioneros, Russell y Norvig, es que, si bien la IA ofrece muchos aspectos positivos para la humanidad, también plantea muchos riesgos, intencionados o no, que no pueden ser ignorados.

Por ello, señalan estos expertos, “dado que la IA es una poderosa tecnología, tenemos la obligación moral de usarla correctamente, promoviendo sus aspectos positivos y evitando o mitigando los negativos”.

De ahí que, sobre todo en el mundo anglosajón, abunden los análisis e iniciativas sobre los aspectos éticos de la IA, en particular los elaborados por las grandes compañías tecnológicas.

En este sentido, uno de los estudios más destacados es el elaborado por el IBM Institute for Business Value, con el título “Avanzando en la ética de la IA, más allá del compliance – de los principios a la práctica” (Advancing AI ethics beyond compliance - From principles to practice), que ya en 2018 exploró por primera vez cómo las corporaciones están implementando la ética de la IA.

En 2022, el mismo centro ha actualizado este estudio, titulándolo “La ética de la IA en acción – Una guía para que las empresas desarrollen progresivamente una IA confiable” (AI ethics in action - An enterprise guide to progressing trustworthy AI).

Para ello se ha asociado con Oxford Economics para encuestar a 1.200 ejecutivos en 16 categorías de funciones empresariales y tecnológicas en 22 países. Además, se encuestó a más de 14.000 consumidores, ciudadanos y empleados para conocer sus perspectivas sobre el tema.

Los resultados son concluyentes: clientes, empleados y accionistas no solo esperan que las empresas utilicen la tecnología de forma responsable, sino que lo exigen.

Para empezar, el informe conceptúa la ética de la IA como un campo de estudio multidisciplinar que pretende optimizar el impacto beneficioso de la IA, dando prioridad a la acción y el bienestar humanos generados por la IA y reduciendo los riesgos de resultados adversos para todas las partes interesadas.

Según el informe, la mayoría de los encuestados reconoce la importancia de una IA fiable. El 85% de los consumidores afirma que es importante que las organizaciones tengan en cuenta la ética a la hora de utilizar la IA para abordar los problemas de la sociedad.

Pero no solo los consumidores, Los ejecutivos que clasifican la ética de la IA como importante saltaron de menos del 50% en 2018 a casi el 75% en 2021, lo que supone un aumento con respecto a menos del 50% de una encuesta similar en 2018.

Y es que, si bien muchas organizaciones ya han adoptado medidas para integrar la ética de la IA en las directrices empresariales existentes, consumidores, ciudadanos y empleados indican que hay que hacer más, pues solo el 40% de los encuestados confía en que las empresas sean responsables y éticas en su uso de nuevas tecnologías como la IA, un porcentaje similar al de 2018.

Y a pesar de sus esfuerzos hasta la fecha, incluso los líderes corporativos saben que queda un trabajo significativo que hacer al respecto.

La brecha “intención-acción”

De hecho, la encuesta revela que menos del 20% de los ejecutivos están muy de acuerdo en que las prácticas y acciones de sus organizaciones en materia de ética de la IA coinciden (o superan) sus principios y valores declarados. Estos resultados confirman y cuantifican lo que el Foro Económico Mundial (World Economic Forum, WEF) llama la brecha "intención-acción" (intention-action gap).

Se trata de una teoría desarrolla a comienzos de 2021, con motivo de la elaboración del informe “Uso responsable de la tecnología: el caso Microsoft” (Responsible Use of Technology: The Microsoft Case Study), elaborado conjuntamente por el WEF y el Markkula Center for Applied Ethics de la Universidad de Santa Clara. En este informe se puso de manifiesto que, a pesar de sus buenas intenciones, a menudo se aprecia una brecha en las empresas entre el deseo de actuar éticamente y el seguimiento de esas buenas intenciones.

Es la denominada “brecha intención-acción”. Resolver estas deficiencias operativas es fundamental. Por ejemplo, para que la IA sea menos sesgada y más digna de confianza, hay que abordar el principio ético de la diversidad la no discriminación y la equidad. Las organizaciones reconocen su importancia, calificando este este punto como significativamente más importante para sus esfuerzos en IA en 2021 que en 2018.

Para abordar esta cuestión, los empleados que trabajan en la ética de la IA deberían representar al público en general; sin embargo, los equipos de IA siguen siendo sustancialmente menos diversos que las plantillas totales de las organizaciones. Por ejemplo, el estudio muestra que hay 5,4 veces menos mujeres en los equipos de IA que en la organización, junto con 4 veces menos personas LGBTQ+ y 1,7 veces menos personas negras, indígenas y de color (BIPOC).

En nuestra encuesta vemos algunas pruebas de que estos esfuerzos también son rentables desde el punto de vista económico. Por ejemplo, las empresas en el cuartil con la menor brecha de género entre sus entre sus plantillas y sus equipos de IA obtienen un de la inversión en sus proyectos de IA. Se necesitan esfuerzos similares con objetivos tangibles y resultados medibles resultados medibles para eliminar las disparidades entre otros principios y prácticas de ética de la IA.

Los resultados de esta investigación se resumen en cuatro lecciones o aspectos de mejora:

1. La innovación responsable comienza con un cambio de cultura

La mentalidad influye en el quehacer humano. Con esta mentalidad surgió un ambiente de introspección, innovación y aprendizaje que permitió a la cultura de la empresa considerar más profundamente los impactos de su tecnología en la sociedad.

2. El uso de las herramientas y las técnicas adecuadas facilitan la aplicación de los principios

En cualquier iniciativa de gestión del cambio, las herramientas facilitan que los individuos modifiquen su comportamiento. Esto también es válido para hacer operativa la ética en la tecnología.

Dado que profesiones como la ciencia de los datos y el aprendizaje automático (Machine Learning) están todavía en sus inicios, las herramientas facilitan a los profesionales la explicación del rendimiento de los modelos de la ciencia de los datos, la mejora de la equidad de los algoritmos y la identificación de cuestiones éticas fundamentales para hacer operativa la IA responsable.

3. La alineación y la medición del impacto crean responsabilidad

Muchas empresas evalúan el rendimiento de sus empleados en función de cómo defienden los valores de la empresa. Para cualquier empresa que busque hacer operativa la ética en la tecnología, debe ampliar esta práctica para evaluar y medir el rendimiento de los empleados con respecto a los principios éticos de la empresa en materia de tecnología.

4. Los productos responsables son mejores productos.

A través de la innovación responsable, se pueden desarrollar "mejores" productos - productos de mayor calidad y que son inclusivos y están mejor preparados para ayudar al mundo.

Ello evidencia que las organizaciones se enfrentan a una dura elección. Pueden confiar en las regulaciones inminentes y esperar que el foco de atención sobre las cuestiones éticas se atenúe con el tiempo, una alternativa arriesgada. O pueden distinguirse afrontando las cuestiones éticas de forma estratégica, decidida y reflexiva.

¿Quién es responsable de la ética de la IA?

La responsabilidad sobre el desarrollo de una IA ética ha cambiado drásticamente desde 2018, cuando los ejecutivos señalaron a sus líderes técnicos como principales responsables de esta cuestión.

En efecto, la encuesta de 2021 revela que las empresas de todas las industrias y geografías ahora buscan a sus ejecutivos no técnicos para liderar, y con un enfoque colaborativo. Están aprendiendo que la complejidad de la operacionalización de la ética de la IA requiere la aportación de todas las funciones empresariales.

A su vez, los ejecutivos indican que hoy están mejor preparados para asumir los desafíos. En 2021, cuatro veces más directores generales dicen estar preparados para actuar en cuestiones de ética de la IA que en 2018. Y los directores de recursos humanos están preparados para abordar de forma proactiva la formación necesaria de los empleados. Aquellos con planes para reciclar y recapacitar a los trabajadores impactados por la IA aumentaron del 37% al 55%.

Desarrollar una IA confiable puede aportar diferenciación

El informe subraya que los beneficios de desarrollar una IA confiable se extienden más allá de la mitigación de los riesgos y el cumplimiento de las expectativas de las partes interesadas para actuar de manera responsable. De hecho, el 75% de los ejecutivos ven la ética como una fuente de diferenciación competitiva.

Los resultados del informe desarrollado por IBM muestran que los adoptantes más avanzados de la IA también están a la cabeza de las prácticas éticas de la IA. Y aquellas organizaciones que adoptan la IA como clave para su estrategia de negocio informan de que consiguen un ROI 2 veces mayor en los proyectos de IA en comparación con aquellas empresas que no ven la IA como algo importante. Así, 3 de cada 4 ejecutivos ven la ética como una fuente de diferenciación competitiva.

Un enfoque centrado en la ética de la IA también puede complementar los esfuerzos de las organizaciones para lograr una ventaja competitiva, una innovación sostenible e incluso objetivos de justicia social a través del uso responsable de la tecnología. Más del 67% de las organizaciones que ven la IA y la ética de la IA como algo importante también indican que superan a sus pares en sostenibilidad, responsabilidad social y diversidad e inclusión.

Próximos pasos para el avance de la IA de confianza

El informe concluye destacando que ya se dispone de los recursos necesarios para implementar una IA ética, quedando solo a la espera de que las organizaciones los utilicen para lanzar sus iniciativas de ética de la IA.

El campo de la ética de la IA -explorado inicialmente en entornos de investigación interdisciplinarios- ofrece muchos marcos, activos y asociaciones constructivos. Por ello, la elección de las herramientas adecuadas depende del punto en el que se encuentre una organización en su viaje hacia la IA y de quién esté llevando a cabo las acciones.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll