Cargando. Por favor, espere

Portada

Los medios de comunicación no dejan de insistir sobre la existencia de la inteligencia artificial y hemos tenido que familiarizarnos con el término «algoritmo», aunque la mayoría de las personas no sepan en qué consiste realmente. Se trata de un grupo de operaciones finiquitas organizadas de una forma ordenada y lógica con las que se obtiene la solución de un problema. Los algoritmos tienen la entrada que es la información que se le suministra, el proceso que son los cálculos necesarios para procesar la información y lograr una solución final y el resultado de la operación. Mediante el lenguaje de programación podemos transformar los algoritmos en un conjunto de instrucciones, lo que supone que se programan dentro del ordenador o de la máquina de que se trate para que esta los descifre y realice las tareas para las que fue programada.

Resulta evidente que los datos que conforman el algoritmo son proporcionados por la inteligencia humana, es decir, no nacen por generación espontánea ni los produce un robot al margen del ser humano, hoy por hoy

Resulta evidente que los datos que conforman el algoritmo son proporcionados por la inteligencia humana, es decir, no nacen por generación espontánea ni los produce un robot al margen del ser humano, hoy por hoy. No cabe entender que la IA se trate de una robótica inteligente que actué por sí misma, y que, por tanto, pudiera llegar a rebelarse frente al ser humano que la ha creado, lo cual sería un tema propio de una película de ciencia-ficción.

Los robots tienen que ser programados para que puedan actuar y se nutren de los algoritmos, incluso en una materia tan delicada como es la de dictar sentencias, a propósito de lo cual Richard Susskind manifiesta, contra quienes se oponen a que la IA las dicte porque entienden que los sistemas sólo pueden operar con datos del pasado, que los seres humanos no se alimentan de datos de futuro (no hay que olvidar que es británico y, por tanto, no le es ajeno el derecho anglosajón que se basa en el precedente)

Se puede pensar que la llamada IA, no conoce la parcialidad en las sentencias, ni la discriminación, no es racista, no tiene filias y fobias. Ahora bien, sí puede tener todas esas características quien proporcione los datos de los algoritmos y esto nos lleva a plantearnos si es posible que los robots lleguen a tener sentimientos. Puede resultar verdaderamente extraño este planteamiento e, incluso, ser considerado imposible, sin embargo nombres como Leonardo da Vinci, Julio Verne, Isaac Peral o el propio Edison nos deben hacer pensar que aquello que en un momento imaginó alguno de ellos y parecía totalmente imposible que llegara a existir, con el tiempo ha sido una realidad, así submarinos surcando los mares, hombres que hacen vuelos, cohetes enviados al espacio o electricidad que cambió para siempre la forma de vida y, por tanto, la sociedad.

Podemos pensar que los sentimientos son sólo humanos porque se entienda que sólo la persona tiene alma y que los animales tienen solamente instintos como el de maternidad con las actitudes protectoras que conlleva, o el de protección que demostró el cisne negro del lago del Palacio de Cristal del Retiro que dio su vida al defender a su pareja del ataque de un perro, pero es indudable el sentimiento de cariño, de amor, que demuestran los perros hacia sus amos incluso cuando éstos han fallecido. Pues bien, con independencia de ello si la llamada IA necesita de la inteligencia humana para existir, no parece impensable que se le pueda dotar de sentimientos que serán la manifestación de los que tenga la persona que da lugar a los algoritmos.

El ingeniero informático Blake Lemoine contratado por Google para estudiar los posibles fallos de la tecnología denominada LaMDA (modelo de lenguaje para Aplicación de Dialogo) asegura que puede acceder a todos los sistemas de información de formar dinámica y actualizar su modelo de lenguaje sobre la marcha mientras mantiene conversación con un humano. Este ingeniero ha sido despedido por Google por quebrantar el principio de confidencialidad. Por otra parte, existe la IA emocional que, por ejemplo, al escuchar las inflexiones de la voz, empieza a reconocerlas cuando se correlacionan con el estrés o la ira.

La máquina carece del cerebro y no cabe entender que pueda generar sentimientos por sí misma, pero si los datos que se le suministran tienen contenido xenófobos, homófobos, de rechazo a determinada religión etc., los sentimientos de desprecio, de rechazo hacia determinados colectivos se estarán inoculando en los robots y las soluciones que den a los problemas que se le planteen llevarán la impronta de los sentimientos humanos. Si esto lo trasladamos a las sentencias que puedan dictar nos podremos encontrar con una falta de imparcialidad y cabe preguntarse ¿quién controla a las personas que proporciona los datos?

Resulta evidente que la utilización y creación de la IA debe ser objeto de regulación por parte del Derecho para evitar resultados indeseables

Resulta evidente que la utilización y creación de la IA debe ser objeto de regulación por parte del Derecho para evitar resultados indeseables. La UE, con la llamada Ley de la Inteligencia Artificial, dados los riesgos que empieza a generar la misma, intenta controlarlos. El Parlamento Europeo, partiendo de una propuesta de la Comisión Europea cuyo primer borrador se presentó hace ya dos años, ha añadido varias modificaciones para tratar de regular ChatGPT o Bard y las inteligencias artificiales, que sirvan para actuar de forma parecida a la inteligencia humana. Una de las finalidades es prohibir la identificación biométrica en tiempo real limitando su uso, en grabaciones previas, a fuerzas de seguridad que cuenten con autorización judicial

El 14 de junio del presente año 2023 el Parlamento Europeo adoptó su posición negociadora sobre la ley de la IA. La prioridad es garantizar que los sistemas utilizados por la misma sean seguros, trasparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales y el Parlamento también quiere establece una definición tecnológicamente neutra y uniforme de la IA para que pueda aplicarse a futuros sistemas de ésta.

Se contemplan diferentes tipos de riesgo, los inaceptables son aquellos que se consideran una amenaza para las personas y quedarán prohibidos, como son los juguetes activados por voz que fomenten comportamientos peligrosos en los niños o la clasificación de personas en función de su forma de comportarse, estatus socioeconómico o características personales y los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial. Se consideran de alto riesgo los que afecten negativamente a la seguridad o a los derechos fundamentales y serán evaluados antes de su comercialización y a lo largo de su ciclo de vida, por último, se consideran de riesgo limitado aquellos que deben cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa, esto incluye sistemas de IA que generan o manipulan contenidos de imagen, audio o video, por ejemplo, deepfakes.

Una vez que el 14 de junio de este año 2023 los eurodiputados ajustaron su posición negociadora sobre la ley de IA, ahora comenzarán las conversaciones sobre la forma final de la ley en el Consejo junto a los países de la UE. El objetivo es alcanzar un acuerdo a finales de este año 2023.

Scroll