Cargando. Por favor, espere

Los cinco errores a evitar al implantar la Inteligencia Artificial en una organización

  • 14-11-2022 | LA LEY
  • La bondad de una tecnología puede no ser suficiente para su exitosa implantación en una empresa u organización, si las personas, ese tercer elemento en ocasiones ignorado, no la utilizan. O, dicho de otra manera, conseguir que los trabajadores o los profesionales utilicen realmente esa tecnología resultará tan importante como asegurarse de que los sistemas que las utilizan funcionan.
Portada

Carlos B Fernández. Es conocida la afirmación de que la innovación es una actividad que implica a personas, tecnología y procesos. En este sentido, tecnologías como la Inteligencia Artificial (IA) están siendo objeto de gran atención por muchas organizaciones, despachos de abogados de cierto nivel incluidos, en un empeño por mejorar la eficiencia de su trabajo, pues su utilización puede mejorar determinados procesos y abrir nuevas expectativas de desarrollo.

Siendo como es una tecnología incipiente y compleja, la comprensión de su utilidad y ventajas no siempre resulta clara para las personas encargadas de utilizarla. De ahí que en ocasiones los intentos de su implantación, al igual que los de otras tecnologías, hayan concluido en el fracaso (un fracaso generalmente silenciado por sus víctimas).

Ello viene a significar que la bondad de una tecnología puede no ser suficiente para su exitosa implantación en una empresa u organización, si las personas, ese tercer elemento en ocasiones ignorado por los directivos, no la utilizan. O, dicho de otra manera, conseguir que los trabajadores utilicen realmente esa tecnología resultará tan importante como asegurarse de que los sistemas que las utilizan funcionan.

En este sentido resulta muy esclarecedor un artículo recientemente publicado en The Wall Street Journal por Katherine C. Kellogg y Melissa A. Valentine, profesoras de management e innovación en la MIT Sloan School of Management.

Aunque el estudio de estas expertas se ha centrado en la industria de la moda, las lecciones extraídas del mismo bien pueden aplicarse a cualquier otro sector, incluido el de los despachos de abogado.

Y es que, si como explican, los algoritmos son capaces de predecir nuevos estilos de moda, gestionar la cadena de suministros, tomar decisiones óptimas sobre los precios y reducir los residuos, el problema, en su nivel más básico, es que estas tecnologías a menudo chocan con la experiencia y sabiduría ancestrales de los expertos que son la base de la industria: los diseñadores, los compradores, los planificadores, los artesanos de las fábricas o los comercializadores. Aplicado ello al ámbito jurídico, añadimos nosotros, la implantación de tecnologías inteligentes al ámbito de la abogacía puede chocar con la experiencia y conocimientos de los abogados experimentados, que son la base del éxito de una firma.

Sin embargo, esa colisión no tiene por qué ser fatal, como ha demostrado la investigación de Kellogg y Valentine, si se evitan los siguientes riesgos y se sigue las siguientes recomendaciones.

Error 1: Priorizar la implantación en tareas de mayor impacto aparente

La implantación de un sistema de IA con el objetivo de obtener el mayor beneficio posible con la mayor rapidez, suele determinar la utilización preferente de estos sistemas en la automatización de tareas que se prevé reporten un mayor beneficio al negocio.

El resultado puede ser, sin embargo, que los trabajadores o profesionales que los utilicen se vean privados de un trabajo que en el que pueden mostrarse creativos.

En consecuencia, la primera lección que a este respecto proponen Kellogg y Valentine es: céntrese primero en el trabajo que más disgusta a los empleados. Los cambios más importantes vendrán después.

Para ello, conviene preguntar previamente a los usuarios qué aspectos de su trabajo les resultan menos agradables y considerar la forma de automatizarlos.

Haciéndolo así resulta probable que, como se observó en el estudio realizado, una vez que los usuarios aprenden a utilizar el sistema y se van sintiendo cómodos con él, se muestran también dispuestos a utilizarlo en otras tareas, incluyendo aquellas para las que al principio se resistían.

Error 2: Centrarse primordialmente en las dificultades técnicas y el temor a la innovación

Al centrarse en los retos técnicos y emocionales que plantea la implantación de una nueva tecnología en el trabajo, los directivos pueden ignorar algo igual de importante: la forma en que los algoritmos cambian la forma en que los trabajadores o profesionales se ven a sí mismos. En concreto, al temor a que los algoritmos los conviertan en unos sujetos sin espíritu ni iniciativa.

Sin embargo, advierten Kellogg y Valentine, los proyectos de IA más exitosos estimulan las transformaciones de identidad de los profesionales, en particular ayudándoles a modificar su percepción de ser “optimizadores de beneficios” a expertos en funcionamiento.

La lección que extraen al respecto las expertas es que no hay que olvidar el papel que desempeña la propia identidad en las personas (aunque esta sea en gran medida semántica).

Error 3: Hacer hincapié únicamente en cómo los algoritmos pueden ayudar a maximizar los ingresos y la rentabilidad

No hay nada malo en decir a los trabajadores que un algoritmo puede aumentar los beneficios, porque estos también quiere que su empresa gane más, especialmente si además ello es bueno para su propia seguridad laboral y su salario.

Pero puede que este argumento no sea lo suficientemente convincente como para persuadir a los empleados de que superen la tendencia a mantener las cosas como están y no arriesgarse a perder lo que han construido.

Una forma de hacerlo puede ser destacar el potencial del algoritmo para ayudar a los profesionales a evitar el fracaso, en lugar de sólo ayudarles a mejorar los beneficios. Esto encaja con los descubrimientos de las finanzas conductuales, según los cuales el dolor de perder es psicológicamente dos veces más poderoso que el placer de ganar.

Por ello, la tercera lección que proponen estas expertas es que la promesa de que el algoritmo puede ayudar a los empleados o a los profesionales a evitar el fracaso, es más poderosa que la posibilidad de aumentar los beneficios.

Error 4: Utilizar la tecnología algorítmica para proporcionar a los trabajadores y profesionales información en tiempo real sobre su rendimiento

Los datos que se pueden generar y recoger por los sistemas algorítmicos a medida que son utilizada por sus usuarios, permite a la vez proporcionar información instantánea y continua sobre la productividad y cumplimiento de objetivos de los mismos.

Esto puede tener su utilidad en tareas mecánicas, pero cuando se trata de tareas más complejas y que requieren un mayor aporte personal del trabajador, un control de ese tipo puede resultar desmotivador y perjudicial para la productividad.

Por ello, la cuarta lección que proponen estas expertas es que la tecnología de seguimiento no es una solución mágica, por lo que debe utilizarse de forma adaptada a las condiciones de los usuarios.

Error 5: Explicar en exceso cómo funciona el algoritmo

Dado que un algoritmo de aprendizaje automático es una caja negra que no revela lo que ha llevado a las recomendaciones que hace, los usuarios finales a veces dudan en tomar esas recomendaciones, especialmente si no coinciden con lo que la propia intuición de los usuarios finales les dice. Los informáticos intentan entonces explicar por qué sus sistemas hacen las recomendaciones que hacen, con la esperanza de que esto tranquilice a los empleados.

Pero esto puede ser contraproducente porque, en realidad, lo que los usuarios (especialmente los profesionales del derecho, añadimos nosotros) quieren es saber si profesionales como ellos --personas con su base de conocimientos y experiencia en las que confían-- han intervenido en cómo y por qué se hacen esas recomendaciones, y han probado rigurosamente el rendimiento de los algoritmos.

Por ello, la quinta y última lección que proponen Kellogg y Valentine es que dar participación el el diseño del algoritmo a profesionales respetados en el sector, puede ser más importante para los usuarios finales que explicar por qué la tecnología hace una recomendación concreta.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll