Cargando. Por favor, espere

Cámaras con IA en el metro de Londres analizan las emociones de los viajeros

Cámaras con IA en el metro de Londres analizan las emociones de los viajeros

  • 8-7-2024 | LA LEY
  • Con el fin de mejorar la experiencia del usuario y la seguridad del transporte público, el metro londinense ha estado utilizado cámaras equipadas con inteligencia artificial para detectar y analizar cuál es el estado emocional de miles de sus pasajeros, lo que ha generado multitud de debates en relación con la privacidad y la ética por el mal uso de los datos recabados y la ausencia de consentimiento informado por parte de los usuarios.
Portada

Lara Doval. El famoso metro de la capital de Inglaterra ha estado utilizado cámaras equipadas con inteligencia artificial para detectar y analizar cuál es el estado emocional de miles de sus pasajeros.

Este innovador y a la vez controvertido sistema, pretende mejorar la experiencia del usuario, así como la seguridad del transporte público. Sin embargo, este sistema ha operado sin el consentimiento de los usuarios, durante al menos un año, mediante las cámaras de vigilancia.

Esta práctica ha sido desarrollada por el gigante Amazon, con el principal objetivo de crear publicidad personalizada y más específica.

El proceso de estas cámaras equipadas con IA parte de un reconocimiento facial haciendo uso de algoritmos, en los que se identifica a los pasajeros del metro. Con este reconocimiento facial, se establece un análisis de las características físicas de su cara, la distancia entre los ojos y la nariz, y los rasgos identificativos de cada persona. Además, se añade la detección emocional, por la que se identifica la felicidad, la tristeza o el enfado, entre otros, analizando la expresión facial y los movimientos. La suma de ambos estudios permite a las autoridades del metro de Londres, captar de forma más precisa, el comportamiento de sus pasajeros.

Toda idea tiene un propósito, y en este caso, es hacer uso de la información recabada para ofrecer publicidad personalizada. Se podría dar un ejemplo: el caso de que una persona muestre una expresión de tristeza, la publicidad que se le mostrará estará relacionada con servicios de apoyo emocional.

Sin ánimo de poner pegas a este sistema que parece que pretende hacer el bien común, ¿quién ha dado su consentimiento para qué analicen su rostro?, ¿quién tiene autorización para tener acceso a esos datos?, ¿cómo se almacenan y cuál es su protección?

Era de esperar que, una vez implantado este proyecto, generase multitud de debates en relación con la privacidad y la ética. Existen expertos que muestran su preocupación por el mal uso de los datos recabados y la ausencia de consentimiento informado por parte de los usuarios. Al fin y al cabo, la IA puede cometer errores y, por ende, provocar la atribución de emociones incorrectas y en el peor de los casos, identificar como sospechoso a alguien que no lo es.

Posibles debates

La privacidad y el consentimiento son la mayor inquietud actual, por lo que, la ausencia de consentimiento por parte de las personas es calificado como no ético, apostando por una propuesta de opción. Es decir, que sea el propio usuario quién decida personalmente y de forma informada, si quiere participar en el proyecto. Mientras existe la posibilidad de argumentar que la seguridad pública puede justificar la vigilancia monitoreada, la otra parte es en la que se encuentran los derechos individuales, que deberán ser defendidos por encima de todo lo demás.

Por otro lado, la tecnología aún mantiene un gran margen de mejora, existiendo errores que podrían causar consecuencias negativas como acusar injustificadamente y discriminar a las personas. La precisión es el punto clave, y la IA todavía está en proceso de aprendizaje y de ser fiable.

Como un tercer debate que nace del propósito del proyecto (ofrecer publicidad personalizada), invadiendo la privacidad de los usuarios. ¿Ha existido transparencia durante todo este proceso por parte de las autoridades? La transparencia es fundamental, siendo uno de los principios de la protección de datos personales, pues las autoridades deberán informar de manera clara cómo se hace uso de los datos recabados.

Perspectivas de futuro

El avance y perfección de la tecnología es una cuestión de tiempo, por lo que el debate sobre la ética en la vigilancia con IA en lugares públicos también ofrecerá una evolución. Será necesario el desarrollo de políticas que busquen el equilibrio entre la innovación tecnológica y la protección de los derechos individuales, incluyendo a todas las partes interesadas.

La IA seguirá mejorando su capacidad de análisis y será más precisa, por lo que, la confianza en las próximas versiones es evidente, reduciendo errores y aumentando la confiabilidad.

No se puede desarrollar un futuro tecnológico sin antes prestar atención a la ética. Las empresas deberán comprender el impacto social y todos los riesgos que provocarían infinitas consecuencias que conllevarían al implantar cualquier sistema de vigilancia invadiendo la privacidad, como ha sido el caso.

Cabe destacar, que no solo las autoridades o los gobiernos deben ser partícipes en todo este proceso, sino que, involucrar a la ciudadanía en la decisión de esta tecnología, será esencial para permitir un uso debido de las herramientas de IA.

Conclusiones

Equilibrio entre seguridad y privacidad. Nadie duda de que en cualquier medio de transporte público debe haber seguridad que garantice la protección de los ciudadanos. Sin embargo, es necesario un equilibrio que avale por el respeto de los derechos individuales de las propias personas. Por ello, las políticas deberán incluir ambos aspectos.

Regulación y marco legal. Se debe abogar por una regulación sólida que proteja la privacidad de los ciudadanos. Y las leyes deberán incorporar en su contenido cómo gestionar el uso de IA en espacios públicos y garantizar la protección de datos.

Educación y conciencia. Los usuarios de esta tecnología deben comprender cuál es su funcionamiento y qué datos se recopilan, así como cuál es su finalidad. Con ello, podrán tomar decisiones más sabias y acertadas, entendiendo qué hacen y qué deciden.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll