Guillermo Orozco Pardo
Universidad de Granada
Según se afirma la llamada «Generación Beta», formada por los nacidos de 2025 a 2039, vivirá en un mundo «absolutamente diferente». y su vida estará marcada por una inmersión en la inteligencia artificial y la tecnología lo que supone que estamos ante una sociedad de «nativos digitales» para los que el «cibermundo» estará en «confusión» con el mundo «real» y vivirán en un contexto que tendrá una proyección completa «más allá» de del espacio físico en el que habiten. Y uno de esos contextos serán las llamadas redes sociales en las que parece confundirse los conceptos de medio de «comunicación» y de «información». Para la RAE «comunicar» supone descubrir, manifestar o hacer saber algo a alguien haciéndole participe de lo que se tienen o sabe. «Informar» supone dar una noticia dando forma «sustancial» a lo conocido para instruir (in-formar) a una persona o conjunto de ellas. Un «medio de comunicación» es un instrumento, herramienta o sistema técnico que permite el intercambio de mensajes o contenidos entre un emisor y un receptor y pueden ser masivos o interpersonales valiéndose de distintos canales y ser interactivos o no. Un «medio de información» persigue no solo «comunicar», sino también poner en conocimiento del destinatario conocimientos, noticias y demás informaciones objetivas, veraces y contrastadas.
Dentro de los medios de «comunicación» destacan hoy los «digitales» como los portales de noticias, los «podscats», el correo electrónico, los servicios de mensajería instantánea, que permiten a los usuarios «dialogar o contactar» entre ellos por medio de la voz, la imagen o el texto. Pero las «redes sociales» son más «complejas» pues se presentan como «foros» de intercambio de información, cometarios y demás contenidos que los «usuarios» registrados en ellas «comparten» de manera que no solo permiten llevar a cabo una interacción social, sino también comunicar y proveer de información entre sus usuarios «registrados». En aras de una necesaria conciliación entre la libertad de creación y de información y la necesidad de evitar contenidos lesivos, falsos o sesgados, se han venido aplicando medidas «anti fake news» en base a programas de verificación de datos mediante la intervención de «socios acreditados» que ahora se va a sustituir por sistemas de «apuntes» de los usuarios como hace la red X y ahora va a hacer Meta. Ello nos lleva a plantear el dilema de la «Censura» en las redes sociales.
La «censura previa» apareció apenas inventada la imprenta, en los albores del siglo XVI y se extendió por toda Europa y como tal hay que entender en este campo la intervención preventiva de los poderes públicos, los «responsables» de las redes, los organismos de verificación o los propios usuarios para prohibir o modular la publicación o emisión de mensajes escritos o audiovisuales en la Red. En China los contenidos a generar por IA deben reflejar los valores fundamentales socialistas y no socavar la unidad nacional, ni subvertir el poder del Estado y se «prohíbe» la creación de material que desinforme o genere bulos. Además, se hace responsables a los editores de las consecuencias derivadas de los contenidos generados por IA que deberán ser «marcados» para su identificación. Frente a ello, el Tribunal Supremo de los Estados Unidos, como ya hizo la India en 2020, ha confirmado la Ley federal que prohíbe Tik Tok —150 millones de usuarios en EEUU— a menos que sea vendida por su empresa matriz —ByteDance que su tiene sede en China— y afirma que supone un «riesgo para la seguridad nacional» por sus vínculos gubernamentales ya que podría difundir contenidos de propaganda de forma que los usuarios no la pudieran advertir y obtener datos de los consumidores que podrían acabar en poder del gobierno chino.
En estos momentos, el desafío proviene la Inteligencia Artificial «generativa» entendida la capacidad de la máquina gobernada por algoritmos que puede crear ideas, contenidos y perfiles de usuarios. Para 2025 se espera que el 90% de los contenidos disponibles en la Red sean generados con la ayuda de o por la IAG. Ya existe el «Robot» censor» pues los algoritmos se utilizan para «decidir» si un contenido, información o comentario, es o no licito, moral o, cierto o «políticamente correcto. Se producen «algoritmos de rastreo» entrenados por medio de un catálogo que les permiten identificar textos ilícitos en base a que contienen grupos de palabras incluidas en su «catalogo censor» y con ello identifican escritos, imágenes o sonidos cuya divulgación puede ser impedida o limitada. Pero el algoritmo «aprende» utilizando un conjunto de «palabras clave», sonidos o imágenes y va perfeccionando su capacidad de detectar contenidos «censurables» y con ello establece «patrones y jerarquías» de mayor o menor gravedad de la ilicitud de esos contenidos.
Entre otros problemas —falta de transparencia en su diseño, ausencia de supervisión humana— los expertos ponen de relieve que el procesamiento de «lenguaje natural» es uno de los campos en los que la IA sigue siendo deficiente, por lo que no puede discernir cual es el contexto en que crea y emite el contenido, su intencionalidad y el tipo de registro en el que se encuadra y, sin embargo, el «Robot censor» adopta su decisión, aun cuando o pueda «explicarla» ni razonar su fundamento. La metáfora de la llamada «black box» —caja negra— viene a ilustrar la imagen de la pérdida de control sobre la evolución trazabilidad y comprensión de la operatividad del algoritmo que puede llevar a «decisiones y a "predicciones" sesgadas». A título de ejemplo daremos algunas cifras: En el primer semestre de 2024 Google suspendió en España 1.207 canales y Tik Tok eliminó 21.430 vídeos que podían violar su política de desinformación, así como otros 1.314 por ir contra su política de integridad cívica. Y esto nos lleva al tema de los «prejuicios», los «sesgos», y el «perfilado» de los sujetos que interactúan en las redes.
Un «prejuicio» supone una opinión previa y tenaz, por lo general desfavorable, acerca de algo que se conoce mal. (RAE) Estamos ante una idea preconcebida —normalmente negativa— respecto de un hecho, una persona o un colectivo, que nos lleva a pre-juzgarlos antes de tener la oportunidad de conocer su realidad exacta. Supone un proceso mental inconsciente que se anticipa a la realidad en base a ideas procedentes de la cultura, el contexto, las emociones, los traumas heredados o adquiridos por la crianza, la familia o la sociedad en la que se desenvuelve el sujeto. Tal sería el caso de la «xenofobia», el «racismo» o la «homofobia». Un «sesgo» lo que está torcido, cortado o situado oblicuamente. (RAE) Una información «sesgada» es aquella que es incompleta, inexacta o se desvía de la verdad y produce una «distorsión en la manera de pensar o actuar de una persona, provocando una tendencia inconsciente en el razonamiento o conducta de un sujeto o colectivo que le conduce a tomar una decisión o realizar un acto que no es objetivo o, al menos, es parcial porque se basa en un proceso de comprensión de la información distorsionado erróneo, desviado o "torcido"». Un «estereotipo» supone elaborar un «patrón social» en base a clasificar a las personas en «categorías» que permiten responder de forma inmediata a situación de interacción social y fácilmente conducen a la formación de prejuicios ya que se basan en sesgos negativos en la «información de entrada» que afecta al proceso de toma de decisiones.
En el ámbito de la IA el sesgo es un problema relevante ya que los sistemas aprenden en base a «datos de entrenamiento» que pueden contener sesgos y ello derivará en la existencia de «sesgos algorítmicos» que aprenden a tomar decisiones «sesgadas» y producir resultados «discriminatorios» que reflejan y mantienen prejuicios y estereotipos que llevan a generar información o decisiones lesivas para los sujetos afectados.
Ello conduce directamente a la práctica de la generación de perfiles: Un «perfil» en redes sociales describe las características de personas o colectivos tales como intereses, experiencia, hábitos de consumos, relaciones personales, afiliaciones políticas o profesionales, estado civil, actividad reciente, opiniones y ubicación geográfica. Tales contenidos pueden ser compartidos por el sujeto de forma consciente o no, o bien extraídos por medio del tratamiento de sus datos personales. Es algo muy común en nuestros días por cuanto las personas hacen públicos —«Extimidad»— muchos de los datos que permiten su perfilado, unas veces de formas conscientes para interactuar en redes profesionales, por ejemplo, pero en otras suponen un riesgo evidente porque las personas pueden introducir sus «sesgos cognitivos —basados en sus propias experiencias, emociones y prejuicios— y "contaminar" al sistema IA». En su informe Towards a Standard for Identifying and Managing Bias in Artificial Intelligence (NIST Special Publication 1270), el NIST así lo pone de manifiesto: «Los factores humanos y sistémicos, institucionales y sociales, son también fuentes importantes de sesgo en la IA, y actualmente se pasan por alto. Para superar con éxito este reto habrá que tener en cuenta todas las formas de sesgo. Esto significa ampliar nuestra perspectiva más allá del machine learning para reconocer e investigar cómo se crea esta tecnología en nuestra sociedad y cómo repercute en ella». Una vez introducidos los sesgos en el sistema IA por los integrantes de la red social, ello supone la entrada de una «contaminación censora por usuarios» que entrena a la IA en su labor de perfilado y creación de estándares, en base a una información de entrada de alto valor y de ello deriva en su propio perjuicio ya que pueden llevarle a una información sesgada y permitir que se les encuadren en un «estereotipo» que limite su acceso a productos o servicios, o sean manipuladas de forma inconsciente. Por otra parte, si bien la «presión» de ciudadanos, o grupos de ellos, para impedir la difusión de contenidos, aunque consiga obtener el mismo resultado, puede llegar a ser una intromisión en un derecho ajeno, con relevancia penal en más de un caso y desde más de un aspecto, pero no «censura» en el sentido que le da la Constitución, según se deduce de la doctrina de nuestro TC,no cabe duda de que ésta nueva «censura por usuarios» que se va imponiendo en las redes sociales —al margen de las exigencias de la normativa de UE— va a facilitar el aumento de los sesgos y los prejuicios que fomenten los «perfiles estereotipados» que deriven en manipulaciones de conductas y hábitos de consumo, invasión de la «neuroprivacidad» y discriminación en el acceso a los productos y servicios en la Sociedad digital, al margen del poder que se otorga a los titulares de las redes de controlar y censurar información y eludir las responsabilidades que de tales daños y perjuicios se deriven.