Cargando. Por favor, espere

Internet de los objetos, domótica e inteligencia artificial: la nueva frontera del derecho a la vida privada y familiar

Internet de los objetos, domótica e inteligencia artificial: la nueva frontera del derecho a la vida privada y familiar

Ricard Martínez Martínez

Profesor de Derecho Constitucional y director de la Cátedra de privacidad y Transformación Digital Microsoft-Universitat de Valencia

Diario La Ley, Nº 31, Sección Ciberderecho, 16 de Julio de 2019, Wolters Kluwer

LA LEY 8992/2019

Normativa comentada
Ir a Norma Constitución Española de 27 Dic. 1978
  • TÍTULO PRIMERO. De los Derechos y Deberes Fundamentales
    • CAPÍTULO II. DERECHOS Y LIBERTADES
      • SECCIÓN 1.ª. De los derechos fundamentales y de las libertades públicas
Ir a Norma Convenio de Roma 4 Nov. 1950 (protección de los derechos humanos y de las libertades fundamentales)
Ir a Norma LO 3/2018 de 5 Dic. (Protección de Datos Personales y garantía de los derechos digitales)
Comentarios
Resumen

¿Es necesario que un humano escuche conversaciones de otros para entrenar los sistemas de IA que trabajan con lenguaje natural? La respuesta a esta pregunta requiere plantearse la pluralidad de derechos fundamentales en juego (intimidad, inviolabilidad del domicilio, secreto de las comunicaciones) y la articulación jurídica del proceso.

Los asistentes vocales protagonizan en el último mes portada tras portada. No sólo se trata de noticias, también de opiniones expertas en ocasiones apocalípticas. Ello sitúa a las compañías ante la encrucijada de la ética, el cumplimiento normativo y la transparencia. Con cada nueva noticia se construye un relato estremecedor en el que las corporaciones aparecen como una amenaza para nuestra libertad que no les aleja demasiado de la imagen del totalitarismo contra el que se construyó el modelo de estado, social y democrático de derecho.

Y esto tiene un efecto devastador para nuestro futuro como sociedad. Cada nueva noticia, sea cierta o no, alimenta el rechazo social y la prevención de reguladores y ciudadanía. Si el tiempo acredita su veracidad la historia relatará un inicio de milenio en el que la evolución de la tecnología sacrificó las libertades en el altar de la eficiencia y el lucro. Y si no fuera así, escribiremos el relato sobre cómo un mal diseño en el cumplimiento normativo puso en riesgo un mundo mejor.

I. DERECHOS FUNDAMENTALES, BIENES Y VALORES CONCERNIDOS EN LA IA VOCAL DOMÉSTICA

Cuando en 1994 en el caso López Ostra (1) el Tribunal Europeo de Derechos Humanos amplió el alcance del derecho a la vida privada, reconocido por el artículo 8 de la Convención Europea de los Derechos Humanos (LA LEY 16/1950), difícilmente podía intuir hasta qué punto el mundo virtual podría impactar en este derecho. A lo largo del siglo XX la jurisprudencia norteamericana, la del TEDH, y también la española (2) tuvo que superar el paradigma propietario, la «non trespass rule (3) », y entender que no hace falta penetrar físicamente en una morada para invadir el espacio que protege la inviolabilidad del domicilio.

Paralelamente, el ya viejo nuevo derecho a la intimidad fue evolucionando y engendrando nuevos descendientes. Hasta el Diccionario de la RAE tuvo que incorporar allá por 2004 el término «privacidad», harto criticado, por la doctrina que, sin embargo, expresaba con precisión una nueva realidad. La tecnología había roto de modo definitivo las barreras de lo físico y repercutía en nuestra vida de modo cualitativo haciendo pivotar los derechos del artículo 18 de la Constitución Española (LA LEY 2500/1978) sobre el valor de la información. Como venía señalándose desde los años 70 del Siglo XX en Estados Unidos lo relevante eran los bites, la informational privacy (4) .

Por último, esta acelerada transformación de la garantía de la intimidad gestaba el derecho fundamental a la protección de datos. De este modo, en el seno de un derecho de la personalidad estructuralmente inserto en la categoría de los llamados de derechos de primera generación, nacía un derecho genuinamente prestacional que iba a ser crucial para lo que se ha llamado a definir como derechos digitales e incluso derechos 5G (5) . En su evolución este derecho presenta condiciones que inciden de modo determinante en los operadores, la opinión pública y los reguladores.

El derecho fundamental a la protección de datos, opera en el mundo de lo jurídico como un agujero negro en la física. Curva el espacio tiempo, atrae hacía si cuanto se le acerca e impide ver al observador más allá de su horizonte de sucesos. Las nociones de dato personal y tratamiento han sido fecundas, y a la vez generadoras de modelos de interpretación muy frágiles desde un punto de vista cualitativo. Basta con que existan datos para que opere un silogismo interpretativo básico que excluye cualquier otra posibilidad.

Esta simplicidad dota al derecho fundamental de un arsenal operativo sin parangón, pero engendra el peligro de enfoques demasiado planos. Así, para muchos, y en algunos casos reputados expertos, todo es «protección de datos». Este enfoque no sólo es muy funcional para perseguir lesiones en la esfera privada, también lo es para alcanzar el objetivo contrario. Lo que se ha dado en definir como falacia del consentimiento, facilita extraordinariamente un modo de hacer las cosas en el que, a condición de la existencia de una información previa que el legislador no para de complicar, la prestación de servicios es financiada con la explotación de información personal (6) .

En este contexto, tal vez no alcanzamos a entender cuál sea el impacto de «escuchar» desde cualquier asistente vocal. Los procesos de Inteligencia Artificial (IA) atienden primariamente a lo técnico, es decir a los procesos que traducen a una máquina el lenguaje natural, y permiten a esta tomar decisiones y/o devolver información al usuario. La aproximación al uso de los datos que generan estos sistemas resulta limitada desde un enfoque que se centre exclusivamente en el artículo 18.4 CE (LA LEY 2500/1978), el Reglamento General de Protección de Datos (LA LEY 6637/2016) y las normas nacionales en la materia.

En primer lugar, el derecho fundamental a la protección de datos se orienta, como el resto de los derechos del artículo 18 a proporcionar protección a la esfera de vida privada del individuo. Esta vida se despliega en múltiples facetas, susceptibles de tutela jurídica. En este sentido, aquello que recoge el micrófono de un asistente vocal puede repercutir al menos en los siguientes derechos:

A. En la intimidad de un sujeto.

Esta repercusión, deriva no sólo de la naturaleza de las peticiones que se formulen, sino también de otros factores. Es evidente que ciertas búsquedas por su naturaleza son íntimas, y también ciertas compras. Así, una operación que será tan sencilla en breve como encargar a un asistente vocal la compra en el supermercado, revelará hábitos alimenticios, modos de vida, e incluso aspectos relacionados con la vida sexual. Bastará para ello ordenar ciertas compras en la sección de dietéticos o en la de perfumería.

Pero, no cabe olvidar que el asistente vocal «puede escuchar». Y esta es una cuestión crucial que ya planteó el caso de la aplicación móvil de la Liga de futbol (7) . ¿Es esa escucha puntual o permanente? ¿Depende de una acción del usuario o se activa a voluntad del proveedor?

Cuando un aparato escucha y registra, nos vemos obligados a considerar de inmediato la cuestión desde un enfoque cualitativo y no desde el terraplanismo usual en protección de datos. Con el tratamiento de lo semántico se produce una apertura inmediata del espectro aplicable, puesto que el derecho fundamental a la protección de datos es instrumental, y se proyecta sobre el conjunto de los derechos en función de la naturaleza y significado de la información. Así, si el asistente capta conversaciones esto afectará a la intimidad familiar, si se discute de política a la libertad ideológica… Podríamos escalar las repercusiones ad infinitum.

B. En el secreto de las comunicaciones.

Si el asistente vocal es usado para componer y remitir un mensaje, y sobre todo si integra esta funcionalidad, cualquier información que se genere debería estar protegida por el secreto de las comunicaciones. Y hay que recordar, que este derecho opera como una barrera respecto del hecho comunicativo. Sencillamente, sería imposible cualquier acceso a esta información sin vulnerar gravemente derechos fundamentales e incluso cometer delitos tipificados de modo muy preciso por nuestro Ordenamiento penal. Y ello con un elemento añadido, en las comunicaciones el flujo de orientación es bidireccional o multidireccional. ¿Qué sucede si no se dispone de un consentimiento de todas las partes implicadas?

C. ¿En la inviolabilidad del domicilio?

Resulta aventurado considerar en riesgo este derecho fundamental, o no tanto. En aquellos casos en los que un asistente vocal se conecte remotamente desde un domicilio sin intervención o autorización del usuario, ¿no se produciría esta invasión? La respuesta sería afirmativa si consideramos con el Tribunal Constitucional que «a través de este derecho no sólo es objeto de protección el espacio físico en sí mismo considerado, sino lo que en él hay de emanación de la persona y de esfera privada» y entendemos que «la regla de la inviolabilidad del domicilio es de contenido amplio e impone una extensa serie de garantías y de facultades, en las que se comprenden las de vedar toda clase de invasiones incluidas las que puedan realizarse sin penetración directa por medio de aparatos mecánicos, electrónicos u otros análogos» (8) .

D. … y el pleno ejercicio de sus derechos.

En realidad, como se acaba de señalar si centramos nuestro enfoque en el contenido de la información el riesgo de vulneración se traslada a cualquier derecho. Y no sólo los propios de personas físicas. ¿Estamos seguros de que un asistente vocal activado remotamente puede estar escuchando secretos empresariales?

Así que resulta perfectamente lógico que se produzca alarma social cuando leemos en la prensa que «hay personas» escuchando grabaciones.

II. ¿ES TECNOLÓGICAMENTE NECESARIO QUE EXISTAN PERSONAS ESCUCHANDO GRABACIONES?

Si atendemos a la literatura científica disponible parece que la respuesta debe ser afirmativa. Los sistemas de IA necesitan ser entrenados por muy distintas razones (9) . La más primaria y obvia tiene que ver con la propia complejidad del lenguaje natural. No disponemos todavía de inteligencias de propósito general, nuestras máquinas no procesan adecuadamente emociones, ni dobles sentidos, ni la información semántica que ofrece el contexto de la conversación. Por otra parte, si no se verifica la correcta interpretación de la información que se procesa existe un alto riesgo de generar sesgo en el funcionamiento de la IA (10) .

Los asistentes vocales han requerido de un considerable esfuerzo de desarrollo que incluye el procesado de múltiples variables. En síntesis, el procesado de lenguaje natural por una IA sigue ciertos pasos básicos:

  • 1. Un humano habla a una máquina.
  • 2. La máquina captura el audio
  • 3. Se convierte el audio en texto.
  • 4. Se procesa el texto y la información que proporciona.
  • 5. Para responder se realiza la operación inversa de texto a audio.
  • 6. Data to audio conversion takes place
  • 7. La máquina responde ejecutando un registro de audio.

El sistema debe ser capaz de reconocer una voz humana, identificar el idioma, atribuir un significado específico a la secuencia de palabras, tener en cuenta el contexto semántico e incluso aislar cualquier interferencia sonora adicional (11) . Cualquiera que haya usado una tecnología de dictáfono sabe hasta qué punto es importante el entrenamiento del sistema para una operación mucho menos complicada: la mera transcripción (12) .

Y ello plantea una cuestión obvia. ¿Cómo entrenamos a la IA? ¿Es necesaria la acción de un ser humano? La respuesta parece ser afirmativa (13) . En caso de que además de parecerlo deba serlo, el modo en que dicha tarea se realice pasa a ser determinante y exige un diseño muy preciso.

III. PROTECCIÓN DE DATOS DESDE EL DISEÑO Y POR DEFECTO

Como se ha tenido oportunidad de señalar en distintas publicaciones recientes (14) la protección de datos desde el diseño y por defecto juega un rol determinante no sólo para el cumplimiento del Reglamento General de Protección de Datos (LA LEY 6637/2016), sino también, como metodología de aproximación al cumplimiento normativo por los desarrollos de inteligencia artificial. Pretender aquí siquiera pergeñar un modelo de cumplimiento para los asistentes vocales sería un esfuerzo tan pretencioso como imposible. Sin embargo, es posible inferir algunas «lecciones aprendidas» a partir de las noticias publicadas en los últimos días:

A. Parece existir un problema de transparencia.

La realidad de los hechos parece confirmar, una vez más, que el usuario no es ni remotamente consciente de qué se está haciendo, o qué se podría estar haciendo a partir de sus interacciones con un asistente vocal. El sentido común, el tecnológico y el jurídico, circulan por territorios diferentes. El sentido común dicta que una vez cumplida la finalidad de la interacción la información desaparece. Las noticias desmienten que algo así este sucediendo.

Desde un punto de vista, jurídico hay que partir de la singularidad patria. El regulador español y la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales (LA LEY 19303/2018) se aseguran de que esto no curra si consideramos que aplica el RGPD. No se olvide, que el artículo 32 de la LOPDGDD (LA LEY 19303/2018) no contempla excepciones al deber de bloqueo. Así, que en España esas grabaciones deben guardarse bloqueadas al menos durante tres años.

Por otra parte, habría que tener en cuenta la naturaleza de la asistencia prestada. Si en el presente inmediato, o en el futuro próximo, podremos solicitar al asistente que realice acciones dotadas de trascendencia jurídica, —como por ejemplo ordenar una reserva de hotel—, la garantía de nuestros derechos como consumidores implica el necesario registro de un contrato que obviamente es verbal.

Desde un punto de vista tecnológico, parce que es necesario verificar un porcentaje de los registros, se ha dicho que un 0.2%, con la finalidad de mejorar los procesos, entrenar a la IA y evitar errores de funcionamiento y sesgo. Y, sin embargo, para el común de la población todas estas necesidades resultan desconocidas.

Pero no es este el único problema. A pesar de la simplificación en los modelos de información sobre el tratamiento de datos personales, resulta sencillamente imposible encontrar información muy clara. Permita el lector, una afirmación un tanto coloquial y ajena al estilo de un trabajo como este, pero lo cierto es que para su redacción no se ha encontrado en ningún sito la frase:

«Técnicos de la compañía escucharán sus registros de voz con la finalidad de entrenar a nuestra inteligencia artificial. Recurrimos a expertos en análisis de lenguaje natural que verifican que nuestros sistemas entienden y atienden correctamente sus peticiones. Para este proceso es imprescindible la asistencia de seres humanos que sean capaces de traducir el lenguaje natural a registros procesables por nuestros programas informáticos. Estas personas, se encuentran vinculadas mediante exigentes condiciones de confidencialidad y limitan su tarea a la exclusiva finalidad de asegurar que nuestra IA es capaz de entender lo que Vd. le solicita»

Se prefiere la tan manida frase de «usamos sus datos para mejorar su experiencia de usuario», que en modo alguno refleja con precisión que ocurre. Obviamente, cuando el usuario se topa con noticias que revelan que una persona ha escuchado audios de todo tipo, —hasta 200 conversaciones a la semana—, es razonable que se alarme. No puede pedirse «comprensión» para aquello que previamente no se explicó de un modo adecuado.

B. Qué se ha tenido en cuenta en el diseño del modelo de cumplimiento.

Por otro lado, con los datos disponibles parece que en todos los casos el modelo de cumplimiento normativo ha atendido a lo previsto en el Reglamento General de Protección de Datos (LA LEY 6637/2016). De ser cierto, ello podría incorporar dificultades en la aproximación jurídica particularmente grave, por muy distintas razones.

Primero, porque el uso de un asistente vocal se produce en una situación híbrida desde el punto de vista de la legitimación para el tratamiento de los datos personales. De una parte, si un consumidor compra un asistente vocal en su tienda de electrónica acabará formalizando al menos dos contratos, el de compraventa y el que provee la recepción de un servicio de la sociedad de la información. Y ello plantea, distintos escenarios con relevancia jurídica:

  • La obtención del registro de voz resulta indispensable para la prestación del servicio. La cuestión es determinar de qué voz y en qué contexto. Si la herramienta se instala en un contexto familiar como un domicilio, y no funciona con una verificación unívoca de la voz, escuchará no sólo al comprador sino a cualquiera que se encuentre en la casa. Y ello incluye a menores y cualquier tercero que visite la residencia familiar. Es decir, se estarán procesando datos de personas que no han formalizado relación jurídica alguna con el proveedor.
  • El uso de los registros de voz con fines de entrenamiento del asistente no tiene porqué considerarse una consecuencia necesariamente derivada del contrato. Podría requerir un consentimiento adicional específico e implicar cierto grado de complejidad al que hemos apuntado en el párrafo anterior, cuando afectase a menores o terceros.
  • Por último, los procesos de consentimiento online en contratos de pura adhesión mediante condiciones generales, plantean graves riesgos de incumplimiento normativo en el contexto del RGPD, cuando la información no es muy precisa y/o cuando las condiciones de accesibilidad no se garantizan.

C. ¿Deberían considerarse otras implicaciones jurídicas?

Los aspectos publicados en los distintos casos así parecen apuntarlo. Como se decía más arriba el modelo del RGPD resulta tan funcional como perjudicial cuando opera de modo plano. Si para entrenar a una IA la semántica es crucial, ¿por qué no debería serlo desde un punto de vista jurídico? ¿Qué razón técnica o contractual puede justificar que una persona se sienta espiada o vejada en su dignidad cuando descubre que al otro lado un ser humano escuchaba? ¿Qué significado jurídico deberíamos atribuir a sistemas de información que indirectamente capten una discusión familiar, una conversación comprometedora o actividad sexual? ¿Es razonable que por razones técnicas de puro entrenamiento alguien escuche un mensaje vocal remitido por un asistente a través de una aplicación a otra persona y protegido por el secreto de las comunicaciones?

IV. ALGUNAS PREGUNTAS SIN RESPUESTA

Una simple noticia de prensa, no nos permite saber si se pensó en todo ello, desgraciadamente las políticas de privacidad publicadas tampoco. Y esto es un problema en sí mismo. A la opinión pública ya no le basta una opinión tranquilizadora. Ha descubierto como se manipulan unas elecciones o cada día descubre nuevas violaciones en la seguridad de sus datos. El momento de la ilimitada confianza en las tecnologías de la información y las comunicaciones va siendo sustituido cada día por la desconfianza, esperemos que no por el miedo.

Y por ello es necesario responder varias preguntas en el plano jurídico y tecnológico.

  • ¿Es necesario e ineludible escuchar conversaciones para entrenar a un sistema de IA que trabaja con lenguaje natural? Si la respuesta es afirmativa, deben precisarse las condiciones: que volumen, en qué contexto, bajo qué condiciones.
  • ¿Cómo deberíamos vehicular jurídicamente estos procesos? La intimidad, la inviolabilidad del domicilio, y el secreto de las comunicaciones son derechos irrenunciables, inalienables e imprescriptibles. La renuncia a su ejercicio ha definido modelos y procedimientos contractuales muy precisos en ámbitos como el del derecho a la propia imagen. En este sentido, ¿el entrenamiento de una IA puede hacerse en entornos de laboratorio? ¿podría usar recursos ficticios como películas, documentales o noticias? ¿Es posible acotar, y, en consecuencia, reclutar un volumen de población concreta a través de programas específicos con arreglo a una contratación específica?
  • ¿Cuáles son o deberían ser las condiciones de despliegue de estos tratamientos? Cabe pensar que se habrá diseñado adecuadamente el entorno de seguridad y confidencialidad no sólo en el plano físico, técnico y organizativo, sino también en el personal. Es decir, las personas que «escuchan» habrán sido escogidas por sus cualidades personales y profesionales, y recibido un entrenamiento previo que asegure un comportamiento ética y jurídicamente irreprochable.

No habría que poner en duda, que este análisis se habrá realizado por las compañías, y que la actuación de los reguladores así lo demostrará. No deberíamos esperar otra respuesta. Si no fuera así, si el enfoque de cumplimiento normativo ha sido epidérmico y no profundo, si una vez más «moverse rápido» ha sido lo determinante, nos enfrentaremos a un grave problema. La sociedad necesita confianza en el desarrollo de la Inteligencia Artificial y necesita entender que la garantía de nuestros derechos va más allá de meras formalidades en un proceso de contratación online. Recuerden, no protegemos datos, protegemos personas.

(1)

Caso López Ostra contra España. Sentencia 16798/90 (LA LEY 2-TEDH/1994). Disponible 14/07/2019 en http://bit.ly/2XNm0ju

Ver Texto
(2)

Sentencia del Tribunal Constitucional núm. 22/1984, de 17 de febrero (LA LEY 8565-JF/0000) (BOE núm. 59, de 09 de marzo de 1984).

Ver Texto
(3)

Warden v. Hayden, 387 U.S. 294 (1967) y Katz v. United States, 389 U.S. 347 (1967).

Ver Texto
(4)

Westin, Alan F (1970). Privacy and freedom (6.ª ed.). New York, Atheneum, págs. 336-337.

Ver Texto
(5)

Véase, Red.es El primer Conversatorio sobre los Derechos Digitales sitúa a España a la vanguardia europea. Disponible 14/07/2019 https://www.red.es/redes/es/magazin-red/reportajes/el-primer-conversatorio-sobre-los-derechos-digitales-sit%C3%BAa-espa%C3%B1a-la.

Ver Texto
(6)

Martínez, Ricard. ¿Consentimiento o contrato? Disponible 14/07/2019 http://lopdyseguridad.es/consentimiento-o-contrato/

Ver Texto
(7)

Resolución sancionadora tan publicitada como embargada en su publicación por el regulador. Veáse por ejemplo, El Confidencial. «Sanción histórica a La Liga: 250.000€ por "espiar" con tu móvil en busca de piratería». Disponible 14/07/2019 en https://www.elconfidencial.com/tecnologia/2019-06-11/aepd-laliga-app-sancion-multa-proteccion-datos-pirateria_2064138/.

Ver Texto
(8)

STC núm. 22/1984, de 17 de febrero (LA LEY 8565-JF/0000).

Ver Texto
(9)

Diego Lopez Yse (2019). «An Introduction to Natural Language Processing (NLP)». En Open Data Science. Disponible 14/07/2019 https://medium.com/@ODSC/an-introduction-to-natural-language-processing-nlp-8e476d9f5f59

Sobre las tecnicas de modelización ver Diego Lopez Yse (2019). «Essential NLP Tools, Code, and Tips». En Open Data Science. Disponible 14/07/2019 https://opendatascience.com/essential-nlp-tools-code-and-tips/

Ver Texto
(10)

Yonatan Belinkov, Stuart M. Shieber, Adam Poliak, Benjamin Van Durme, Alexander Rush (2019). «On Adversarial Removal of Hypothesis-only Bias in natural Language Inference». En Proceedings of the Eighth Joint Conference on Lexical and Computational Semantics, págs. 256–262

c 2019 Association for Computational Linguistics

Ver Texto
(11)

Para una descripción de este proceso véase «Modern Deep Learning Techniques Applied to Natural Language Processing» Disponible 14/07/2019 https://nlpoverview.com/

Ver Texto
(12)

Así « Natural Language processing is considered a difficult problem in computer science. It’s the nature of the human language that makes NLP difficult. The rules that dictate the passing of information using natural languages are not easy for computers to understand. Some of these rules can be high-leveled and abstract; for example, when someone uses a sarcastic remark to pass information. On the other hand, some of these rules can be low-levelled; for example, using the character "s" to signify the plurality of items. Comprehensively understanding the human language requires understanding both the words and how the concepts are connected to deliver the intended message. While humans can easily master a language, the ambiguity and imprecise characteristics of the natural languages are what make NLP difficult for machines to implement». Michael J. Garbade. «A Simple Introduction to Natural Language Processing». En Becoming Human: Artificial Intelligence Magazine. Disponible 14/07/2019 https://becominghuman.ai/a-simple-introduction-to-natural-language-processing-ea66a1747b32

Ver Texto
(13)

Véase a título de ejemplo este artículo que describe un proceso de validación de una herramienta destinada a analizar los diagnósticos de sepsis o infecciones en historias clínicas de atención primaria.

Mark I-Cheng Chen (2018). «Validation of a Natural Language Processing Algorithm for Detecting Infectious Disease Symptoms in Primary Care Electronic Medical Records in Singapore» en JMIR Medical Informatics, Apr-Jun; 6(2): e36.

Disponible 14/07/2019 https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6026305/

Ver Texto
(14)

Ricard Martinez (2019). « Un cambio de paradigma. De la protección de datos desde el diseño al Derecho desde el diseño. Como moverse rápido sin romper cosas». En Diario LA LEY, n.o 9422, de 24 de mayo de 2019.

Ver Texto
Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll