I. Nota preliminar
El pasado 9 de marzo participé en un Congreso de innovación docente (2) sobre «El impulso del mentoring para profesores en las enseñanzas on line y presencial», mi intervención inicial se preveía sobre un tema de interés en innovación y en el ámbito jurídico, el título era sobre «El e-learning y e-mentoring, y los desafíos en la protección de datos». En las semanas previas al Congreso propuse a la dirección del mismo que se incorporara un nuevo elemento al título: «la irrupción de chatGPT», que sin duda, ponía en riesgo la tan aclamada y reivindicada protección de datos del Reglamento 2016/679 (o RGPD) (3) en la Unión Europea (en adelante, UE). Esta herramienta cambiaría la percepción de los instrumentos precedentes, y mucho más, habrá de ser tenida en cuenta en una futura revisión del sistema educativo.
Si decimos que esta herramienta de Inteligencia artificial (en adelante, IA) se entrena para analizar, comprender y generar texto en un lenguaje natural como si fuera un humano, y que el modelo de lenguaje desarrollado lo es a través de técnicas de «ciencia de datos» y «deep learning», creando una red neuronal artificial que aprende a realizar tareas como si fuera un humano, cabe afirmar que aún en versión beta (experimental y entrenado con datos hasta septiembre de 2021), es de acceso libre y gratuito y no tiene límites en generar información útil, coherente y creíble, por lo que los beneficios creando contenidos son innumerables. Tan es así que, a partir de unas palabras claves, es capaz de elaborar un texto, crear presentaciones o diseñar un trabajo de fin de grado o master, con respuestas creíbles —habrá que examinar si todas son certeras—, y todo ello, con la extensión que le pidamos (con un máximo de 500 palabras actualmente para cada cuestión que se le plantee, si bien, en su versión más reciente, puede generar textos de más de 25000 palabras), en respuesta a cuanto le planteemos y en cualquier idioma (ha demostrado ser capaz de incorporar a su hub de datos un idioma nuevo en solo 24 horas). Y aunque no siempre proporciona respuestas satisfactorias y plantea dudas acerca de si invade la privacidad y la protección de datos, o si genera situaciones discriminatorias —por estar programada con sesgos—, ni el debate social ni el jurídico pueden restar un ápice a su valor en la adquisición de conocimiento.
Si decimos que este chatbot en la versión GPT-3, a finales de enero de 2023, aprobó el examen final del programa Master of Business Administration (MBA) de la Wharton School de la Universidad de Pensylvania, o el examen de acceso a la abogacía en EE.UU. (Bar exam), que en febrero del mismo año aprobó el examen para obtener la licencia médica en Estados Unidos tras alcanzar primero una puntuación de 52,4% y después del 75% (para graduarse, se requiere al menos el 60%), y sin preparación específica, la pregunta ya es inevitable ¿debe prohibirse o admitirse ChatGPT en las aulas? ¿cómo afecta en el aprendizaje y evaluación de los resultados académicos? ¿qué impacto tendrá en cualquier sector cómo el jurídico o sanitario?
II. Introducción y marco normativo
Los posibles usos de la tecnología, especialmente la inteligencia artificial, aun cuando aporta beneficios ilimitados, constituye una gran preocupación en Europa, hasta el punto de que el 21 de abril de 2021 (después del Libro Blanco sobre la misma materia), la Comisión Europea impulsaba la Propuesta de un Reglamento de inteligencia artificial (o Ley, por su acrónimo en inglés: IA Act) que respaldase una regulación uniforme para toda la UE. De partida, se trata de garantizar que los sistemas de inteligencia artificial introducidos en el mercado de la Unión sean seguros y respeten los valores y derechos fundamentales en la Unión. La pretensión es alcanzar un justo equilibrio entre impulsar la innovación, el emprendimiento y la adopción de las nuevas tecnologías a nivel supranacional (se trata de abanderar el liderazgo europeo en IA), y a la vez, respetar los derechos de los ciudadanos de la Unión (mantener los logros en tutelas y garantías consolidadas). Aunque la regulación definitiva es inminente, quedan muchos retos por solventar hasta conseguir ese pleno respeto y tutela de los derechos fundamentales.
Con la propuesta, la UE muestra su liderazgo normativo y determina que el desarrollo de sistemas de IA exige que el ser humano sea el centro de esta tecnología
Con la propuesta, la UE muestra su liderazgo normativo y determina que el desarrollo de sistemas de IA exige que el ser humano sea el centro de esta tecnología, por lo que se crea una clasificación de sistemas basados en el nivel de riesgo que el desarrollo y uso de la IA suponga para las personas en cualquier contexto. Así, (i) tras establecer en primer lugar prácticas o «sistemas prohibidos», cuyo uso es inaceptable; (ii) contempla «sistemas de alto riesgo» para la salud, seguridad o derechos fundamentales, como ocurre con el reconocimiento facial, y que solo serán admisibles cuando cumplan determinados requisitos horizontales obligatorios que garanticen su fiabilidad y se sometan a evaluaciones de conformidad (a ellos dedica el Reglamento el grueso de su articulado); (iii) los sistemas «de riesgo limitado», sujetos a menos condicionantes pero sí a obligaciones de transparencia en cuanto al deber de informar al ciudadano que está interactuando con una máquina, como ocurre con los robots conversacionales o chatbots; y (iv) «de riesgo mínimo» o nulo, como los videojuegos, no estará sujeto a las limitaciones anteriores. Ahora bien, hay que admitir que cualquier tecnología puede desarrollar y alcanzar nuevas capacidades y con ello incrementar su nivel de riesgo.
Teniendo en cuenta lo anterior, en Europa no preocupan en exceso los bots conversacionales (software que simula una conversación con una persona para dar un servicio) (4) , y así es que estos aparecen en la propuesta de Reglamento encuadrados en sistemas de riesgo limitado y con escasa regulación. Solo cuanto mayor es el riesgo, más normativa y más rigurosa, y a la inversa.
Sin embargo, la aparición de ChatGPT lo cambia todo. Sí inicialmente lo vemos como un mero asistente que se comunica con los usuarios a través de mensajes de texto, las últimas versiones, y hablaremos de GPT 3 —con el que hemos experimentado de manera continua en los últimos meses—, nos muestran el que ya podemos denominar «el ejemplo de IA generativa». Una herramienta extraordinaria —según para qué—, pero también altamente peligrosa por los muchos riesgos que produce.
III. ¿Por qué es diferente la ia generativa? contextualización
Más allá de las típicas tareas de procesamiento del lenguaje natural, como la traducción, o la generación de textos de un bot conversacional o asistente virtual, ChatGPT es un chatbot que ha alcanzado nuevas capacidades basado en el modelo de lenguaje GPT-3 (Generative Pre-trained Transformer, por su acrónimo en inglés) (5) . Utiliza enfoques de aprendizaje profundo y analiza, comprende y genera texto, imágenes, música, voz, código o vídeo como si fuera un humano, incluso en ciencias complejas como el Derecho, la medicina o las ingenierias. La IA generativa (IAG) no es una novedad, lo son las nuevas técnicas de aprendizaje automático con capacidades crecientes que hacen posible crear contenidos nuevos y diferentes. En definitiva, estructura los algoritmos en capas para crear una red neuronal artificial que aprende y toma decisiones como un humano.
La empresa creadora de ChatGPT, que nació con finalidad experimental y sin ánimo de lucro, tenía la magna pretensión de crear una IA segura, fiable y transparente, accesible a todos
OpenAI, la empresa creadora de ChatGPT, que nació con finalidad experimental y sin ánimo de lucro, tenía la magna pretensión de crear una IA segura, fiable y transparente, accesible a todos. Entre el año de su fundación, en 2015, y el año 2019, solo fueron noticia por dos hitos: la renuncia de Elon Musk en su puesto del consejo de administración, y la presentación de GPT-2, un modelo de lenguaje más avanzado que otros asistentes virtuales, capaz de generar párrafos enteros coherentes a partir de solo un enunciado breve y claro. Algunas demostraciones de GPT-2 revelaron el dominio del lenguaje al que había llegado, y sin embargo, solo se dio a conocer una demostración limitada, que no admitió revisión libre por riesgo a un mal uso de la herramienta. En 2019, OpenAI se reestructuró para competir con otras grandes tecnológicas inversoras en IA como Google o Meta.
Desde entonces, se mantiene una división OpenAI sin ánimo de lucro que mantiene la pretensión inicial de mantener a salvo la IA de una finalidad torticera o maliciosa, y una OpenAI de beneficios máximos, capaz de competir en un mercado altamente competitivo. Desde esta última división, con Microsoft como socio preferente, se produce su último lanzamiento, el que ahora nos ocupa y preocupa en toda Europa. GPT-3 fue puesto en circulación en noviembre de 2022, y en solo cinco días alcanzó el millón de usuarios y un valor de mercado de 20.000 millones de dólares. Se prevé que en 2024, la compañía podrá alcanzar ingresos superiores a los mil millones. Por el contrario, google, que hasta ahora obtenía por el cauce publicitario miles de millones de dólares, teme perder la hegemonía que hasta ahora ha ostentado en el mercado de internet.
Desde que el 30 de noviembre de 2022 se diese a conocer Chat GPT3 la pregunta sobre si esta herramienta que excede con mucho los asistentes virtuales al uso (Google Assistant, Alexa o Siri) y buscadores (Google, Yahoo o Bing) hasta ahora, debe prohibirse o admitirse en la Universidad. Hasta la fecha, el debate, completamente necesario se ha evitado, y sin embargo, conocido el fácil acceso y la capacidad de esta herramienta de inteligencia artificial generativa (usa algoritmos y redes neuronales artificiales que analizan —automáticamente— datos óptimos aportados por el usuario o internet y crea contenido nuevo de manera eficiente, en lenguaje humano), es preciso responder al inaplazable desafío social y jurídico. Entendiendo por este, aquel que más que prohibir, proporciona una regulación adecuada y de respeto a los derechos fundamentales.
IV. Algunos riesgos derivados de la IA generativa
1. Riesgos en la protección de datos
Además de enumerar algunos de los riesgos puestos de relieve por el Reglamento de IA al enfatizar que el liderazgo de la Unión debe ir en la línea de desarrollar esta tecnología de manera segura, digna de confianza y ética, y de apremiar a que se garantice la protección de los datos, los derechos digitales y las normas éticas, se insta a que se promueva por el ordenamiento europeo y por los internos, la revisión de cuestiones como la responsabilidad civil, los derechos de propiedad intelectual, los derechos de los consumidores, no discriminación (6) e igualdad de género, o la protección de datos.
Los sistemas de IA aprenden a realizar tareas analizando cantidades ingentes de datos digitales, por lo que esta herramienta puede tener un relevante impacto en la privacidad de las personas
Pero ¿cuáles son los riesgos? Estos nuevos modelos de lenguaje que se sirven de grandes cantidades de datos, entran en colisión con la normativa europea sobre la materia. De ahí que este apartado explore algunos de los riesgos puestos de manifiesto desde que se está experimentando en abierto con chatGPT, teniendo en cuenta que, los sistemas de IA aprenden a realizar tareas analizando cantidades ingentes de datos digitales, por lo que esta herramienta puede tener un relevante impacto en la privacidad de las personas. La prohibición de chatGPT impulsada por la autoridad de control italiana en protección de datos, o la línea promovida por España de someter esta herramienta al Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés), ha determinado el pasado 13 de abril que este organismo cree un grupo de trabajo al efecto. La pretensión, al menos, contribuye a que adquiramos mayor conciencia de la necesidad de crear debate social y jurídico, y que se ponga en valor, una vez más, que cualquier iniciativa de desarrollo de sistemas de IA que quiera implementarse en la Unión, precisa de coherencia normativa con derechos y valores consolidados en Europa. La omnipresente normativa sobre protección de datos, constituye el ejemplo más significativo, y los riesgos que su contexto se generan no paran de sucederse (7) .
El impacto en cualquier profesión, incluso en cualquier posibilidad de acceso a un puesto de trabajo es incuestionable. Imaginemos que quien oferta un empleo puede llegar a acceder a datos sensibles del potencial trabajador (una enfermedad en stand by, o un despido precedente por un error puntual). Sin duda, estos no pueden ser objeto de invasión alguna. Sus posibilidades de respuesta inmediata (un recurso de una multa de tráfico, un contrato o una sentencia automatizada, pero también un diagnóstico médico ante determinada sintomatología, la explicación de fórmulas químicas o matemáticas, o la creación de una web, son ejemplos de creación de contenido coherente, atendiendo a determinados parámetros), así como la generación de información cada vez más precisa, durante 24 horas del día, abre la puerta a una cantidad ingente de respuestas y a resultados sorprendentes.
2. Riesgos en el ámbito educativo: ¿prohibición o admisión en las aulas?
El impacto en cualquier contexto laboral o profesión no admite dudas. Se requerirán perfiles profesionales que sepan trabajar con IA, y que consigan la máxima eficiencia con estas herramientas. Las preocupaciones en cualquier sector productivo o empresarial no están carentes de razones por la implementación de la IA, también en la jurídica es innegable, y en el contexto educativo no podía ser menos (8) .
Así, termino con la pretensión de dar respuesta a la pregunta con la que inicié este análisis ¿Lo prohibimos en la Universidad? ¿O lo incorporamos como herramienta de aprendizaje? Es más, con todo lo que hemos experimentado desde que se generalizó internet al comienzos del siglo xx, cabe plantearse: ¿abríamos prohibido google y toda la información a la que accedemos a través de este buscador? El problema es que esta herramienta, o cualquier otra de IA generativa, tiene capacidad de crear
Hay que avanzar en reformas educativas basadas en un aprendizaje sólido que valore la creatividad y el pensamiento crítico en la resolución de problemas
Si en un primer momento parece razonable prohibirlo y solo admitirlo en situaciones excepcionales teniendo en cuenta el sistema educativo vigente, hay que avanzar en reformas educativas basadas en un aprendizaje sólido que valore la creatividad y el pensamiento crítico en la resolución de problemas. Habrá que aprender primero para tener capacidad comprensiva y garantía de veracidad; después, parece oportuno complementar el trabajo con herramientas como chatGPT. Solo así, creo, podremos desarrollar un aprendizaje continuo y con perspectiva analítica, inspirar, ilusionar y aportar la calidad y cercanía humana que es exigible en el learning o el mentoring del verdadero maestro.
V. Reflexiones finales
El impacto de la tecnología, especialmente la inteligencia artificial, es incuestionable. Las empresas, los ciudadanos y la sociedad en su conjunto hemos admitido cualquier avance en esta línea con bastante entusiasmo y curiosidad. Aunque algunos se resisten al cambio por la falta de regulación y fiabilidad.
Y aún cuando la aparición de asistentes virtuales no siempre cuentan con el apoyo ciudadano porque restan atención individualizada a los servicios, sin embargo, forman parte de nuestro entorno más próximo y de manera activa creciente: Google maps, Alexa o Siri, constituyen sistemas de riesgo limitado y no parece que puedan generar riesgos para la salud, la seguridad o los derechos fundamentales. También otras herramientas como los relojes inteligentes nos permiten acceder a datos que nos parecen óptimos para hacer un seguimiento de actividad o de salud con visión informativa, preventiva e incluso de alerta.
A pesar de lo anterior, la irrupción de ChatGPT que ha adquirido nuevas capacidades, nos lleva a plantearnos: ¿podremos salvaguardar los datos en los nuevos instrumentos? ¿Invadirá la IA nuestros empleos? ¿Será posible mantener los sistemas educativos, sanitarios, de prestación de bienes y servicios en la línea actual? ChatGPT ha venido a revolucionarlo todo, y en ese caso ¿qué ocurrirá con la educación tradicional? ¿ incorporamos la herramienta en la Universidad? ¿la prohibimos?
Desde la perspectiva de la enseñanza aprendizaje, no es posible mantenerse al margen de esta herramienta, pero es preciso evaluar como incorporar su potencial para obtener mayor eficiencia y mejores resultados. Con todo, la prohibición por el Departamento de Educación de la ciudad de Nueva York de ChatGPT en los dispositivos y redes de sus escuelas, las actuaciones iniciadas por la autoridad de control de Italia (9) , o por el Comité europeo de Protección de Datos, difícilmente impedirán a medio plazo, incluso a corto, que herramientas como estas sean prescindidas en las aulas. Eso sí, harán falta nuevos controles y correcciones que se ajusten a la normativa europea de protección de datos —y a la ética—, como viene ocurriendo con grandes operadores en internet como Google, Facebook/Meta o Amazon, que siguen adaptándose a los requerimientos europeos.
Por supuesto que las nuevas herramientas de IA generativa, en cuanto generación de contenido original a partir de información existente, nos ayudarán en los procesos más avanzados de aprendizaje, acercándonos a problemas ficticios, simulaciones o toma de decisiones, y para todo ello, los sistemas educativos actuales habrán de adaptarse para alcanzar mayor eficiencia y productividad. Primero, impulsando una formación sólida que permita interpretar y aplicar los conocimientos, corregir errores, y crear nuevas formas que optimicen el conocimiento; y segundo, teniendo como base la enseñanza con académicos «humanos», de carne y hueso, aumentemos el rendimiento a través de las nuevas tecnologías, con supervisión docente, salvaguardando el valor de la motivación y el pensamiento crítico, retroalimentado mediante un feedback constructivo y de mejora continua.