I. Introducción y contexto
El primer proyecto de Código de buenas prácticas en materia de inteligencia artificial de finalidad general es un documento fundamental que responde a una creciente necesidad de regulación en el ámbito de la inteligencia artificial (en adelante, IA), un campo que ha experimentado un desarrollo acelerado y que plantea tanto oportunidades sin precedentes como riesgos significativos. Este Código se inserta dentro del marco del Reglamento de Inteligencia Artificial, una norma ambiciosa adoptada por la Unión Europea con el propósito de establecer un liderazgo global en la gobernanza de la IA. Con su entrada en vigor el 1 de agosto de 2024, el Reglamento de Inteligencia Artificial ha sentado las bases legales para el desarrollo y uso de la IA en el territorio europeo, priorizando valores como la seguridad, la ética y el respeto por los derechos fundamentales.
El documento tiene un objetivo claro: servir como una guía detallada para los proveedores de modelos de IA de propósito general, estableciendo directrices que les permitan cumplir con las disposiciones legales y, al mismo tiempo, promover el uso responsable de estas tecnologías. Sin embargo, el Código va más allá de ser una herramienta reguladora; busca ser un instrumento dinámico y «a prueba del futuro», capaz de adaptarse a los avances tecnológicos y a los cambios en el contexto social y económico. Su carácter evolutivo se refleja en el énfasis que pone en el proceso iterativo de revisión y retroalimentación, incorporando las contribuciones de una amplia gama de actores, desde la industria y la academia hasta la sociedad civil.
En el contexto actual, la necesidad de un Código de este tipo es más evidente que nunca. La inteligencia artificial ha dejado de ser un concepto futurista para convertirse en una realidad omnipresente, presente en sectores tan diversos como la salud, la educación, las finanzas y la seguridad. Este nivel de penetración tecnológica ha generado preocupaciones legítimas sobre los posibles impactos negativos de la IA, incluyendo la desinformación, la discriminación sistémica y los riesgos para la privacidad. A través de este Código, la Unión Europea busca no solo mitigar estos riesgos, sino también establecer un estándar global que inspire confianza y fomente la adopción ética y responsable de la IA.
El proceso de desarrollo del Código ha sido altamente colaborativo, involucrando a múltiples partes interesadas para garantizar un enfoque equilibrado y representativo. Los grupos de trabajo responsables de su redacción han integrado expertos en derecho, tecnología, ética y políticas públicas (1) , asegurando que el Código aborde las complejidades inherentes al ecosistema de la IA. Este enfoque inclusivo es particularmente importante, ya que la regulación de la IA no es solo un desafío técnico, sino también un reto social y político que requiere una visión integral.
El Código se presenta como una herramienta estratégica para consolidar el liderazgo de Europa en el ámbito de la regulación tecnológica
Finalmente, el primer proyecto de Código de buenas prácticas en materia de inteligencia artificial de finalidad general se presenta como una herramienta estratégica para consolidar el liderazgo de Europa en el ámbito de la regulación tecnológica. Al establecer un marco que equilibra la promoción de la innovación con la protección de los derechos fundamentales, la Unión Europea demuestra su compromiso con un desarrollo tecnológico que no solo sea avanzado, sino también ético y sostenible.
II. Principios rectores y estructura normativa
El primer proyecto de Código de buenas prácticas en materia de inteligencia artificial de finalidad general está cimentado en una serie de principios rectores que forman el núcleo de su estructura normativa. Estos principios no solo guían la redacción y aplicación del Código, sino que también reflejan los valores fundamentales de la Unión Europea, destacando su enfoque en la ética, la proporcionalidad y la colaboración.
Debe tenerse presente que el primer principio clave es la alineación con los valores fundamentales de la Unión Europea, que incluyen la promoción de los derechos humanos, la democracia, el Estado de Derecho y la sostenibilidad ambiental. Este principio garantiza que las medidas propuestas en el Código no solo sean técnicas y legales, sino también éticas (2) .
El principio de proporcionalidad es igualmente esencial, ya que reconoce que los riesgos asociados con los modelos de IA varían considerablemente en función de sus características y contextos de uso. Este principio establece que las medidas regulatorias deben ser proporcionales al nivel de riesgo que presenta cada modelo, aplicando requisitos más estrictos a los modelos que generan mayores impactos sociales o técnicos (3) .
La flexibilidad normativa es otro principio fundamental que asegura que el Código pueda adaptarse a un entorno tecnológico en constante evolución. Este principio reconoce que la IA es un campo altamente dinámico, donde las tecnologías, los riesgos y las oportunidades pueden cambiar rápidamente. Para abordar esta realidad, el Código incluye mecanismos para revisiones periódicas y actualizaciones, permitiendo que las disposiciones se ajusten a los avances tecnológicos y las mejores prácticas emergentes. Esto no solo refuerza la relevancia del Código, sino que también garantiza que las medidas sean prácticas y aplicables en diferentes contextos.
El enfoque colaborativo del Código es otro aspecto central. Este principio subraya la importancia de una regulación inclusiva que involucre a una amplia gama de actores, incluidos gobiernos, empresas, academia y sociedad civil. La colaboración entre estos grupos no solo mejora la calidad de las disposiciones, sino que también fomenta la confianza y el compromiso entre las partes interesadas. En este sentido, el Código promueve el intercambio de herramientas, datos y mejores prácticas, creando un ecosistema que facilite el cumplimiento normativo y la innovación responsable.
Finalmente, el principio de fomento del ecosistema de seguridad destaca la importancia de abordar los riesgos de manera integral, considerando tanto los aspectos técnicos como los sociales y éticos. Este enfoque holístico asegura que las medidas no solo mitiguen los riesgos actuales, sino que también preparen a los proveedores y reguladores para enfrentar desafíos futuros, fortaleciendo la resiliencia del ecosistema de IA.
III. Taxonomía de riesgos sistémicos y medidas asociadas
El concepto de riesgos sistémicos es uno de los pilares del primer proyecto de Código de buenas prácticas en materia de inteligencia artificial de finalidad general. Estos riesgos, definidos como aquellos que tienen el potencial de generar impactos significativos y extendidos en la sociedad, representan un desafío único para la regulación de la IA. El Código aborda este tema a través de una taxonomía exhaustiva que clasifica los riesgos según su tipo, naturaleza y origen, proporcionando un marco analítico que facilita su identificación, evaluación y mitigación.
En cuanto a los tipos de riesgos sistémicos, el Código identifica varias categorías clave, como riesgos cibernéticos, manipulación y desinformación, discriminación ilegal, pérdida de control sobre sistemas autónomos y riesgos asociados con la proliferación de tecnologías de doble uso. Estas categorías no solo reflejan preocupaciones técnicas, sino también éticas y sociales, destacando la intersección entre tecnología y humanidad (4) .
La naturaleza de los riesgos se analiza a través de múltiples dimensiones, como la intencionalidad, la probabilidad de ocurrencia y la severidad del impacto. Este enfoque multidimensional permite una evaluación más precisa y matizada, lo que facilita la priorización de los riesgos y la asignación de recursos para su mitigación (5) .
Las fuentes de riesgos, o los factores que contribuyen a su materialización, son otro aspecto crítico del análisis. Estas incluyen características intrínsecas de los modelos, como sus capacidades técnicas, así como factores contextuales, como el entorno regulatorio y la supervisión humana. Este enfoque integrado asegura que las medidas de mitigación sean exhaustivas y efectivas, abordando tanto los aspectos técnicos como los sociales.
Para cada tipo de riesgo, el Código propone un conjunto de medidas específicas que incluyen la implementación de pruebas adversariales, evaluaciones de riesgos continuas y el desarrollo de marcos de seguridad. Estas medidas no solo buscan prevenir incidentes, sino también fomentar una cultura de responsabilidad y transparencia entre los proveedores de IA.
IV. Obligaciones específicas para proveedores de modelos
El primer proyecto de Código de buenas prácticas en materia de inteligencia artificial de finalidad general establece un enfoque diferenciado para las obligaciones que recaen sobre los proveedores de modelos de inteligencia artificial, tomando en cuenta las capacidades, los riesgos y las aplicaciones de cada modelo. En este sentido, el documento traza una línea clara entre las responsabilidades de los proveedores de modelos de propósito general y las de aquellos cuyos desarrollos presentan riesgos sistémicos. Esta distinción no solo refleja una comprensión profunda de la diversidad en el ecosistema de IA, sino que también garantiza que las regulaciones sean proporcionales y efectivas, evitando cargas regulatorias innecesarias para quienes no gestionan modelos complejos o de alto riesgo.
Para los proveedores de modelos de propósito general, las obligaciones se centran en la transparencia, la trazabilidad y el cumplimiento normativo (6) . Esto incluye la documentación técnica completa del modelo, que debe detallar su proceso de entrenamiento, las fuentes de datos utilizadas, las pruebas realizadas y los resultados obtenidos (7) . Este nivel de documentación es esencial para garantizar la trazabilidad del modelo a lo largo de su ciclo de vida, permitiendo a los reguladores y otros actores relevantes comprender las capacidades y limitaciones del modelo, así como su conformidad con las disposiciones legales aplicables. Además, estos proveedores están obligados a implementar políticas claras de uso aceptable, que delimiten explícitamente los contextos y aplicaciones para los cuales el modelo es adecuado y ético, aunque ello puede llegar a resultar difícil (8) .
En contraste, los proveedores de modelos con riesgos sistémicos enfrentan obligaciones adicionales que reflejan la complejidad y el potencial impacto de sus tecnologías. En este caso, la regulación exige no solo el cumplimiento normativo básico, sino también la implementación de estrategias específicas para la gestión de riesgos. Esto incluye la evaluación continua de riesgos a lo largo de todo el ciclo de vida del modelo, desde la fase de desarrollo inicial hasta su despliegue y uso en el mundo real. Las evaluaciones de riesgos deben identificar posibles escenarios de uso indebido, vulnerabilidades técnicas y riesgos éticos, y proponer medidas concretas para mitigarlos.
Una obligación crítica para estos proveedores es la creación de marcos de seguridad que incluyan salvaguardias técnicas y organizativas diseñadas para minimizar los riesgos asociados al uso del modelo (9) . Asimismo, se requiere que estos proveedores desarrollen informes de seguridad y documentos de evaluación que puedan ser revisados por expertos independientes y autoridades competentes. Estos informes no solo deben detallar los riesgos identificados y las medidas implementadas, sino también incluir planes para la gestión de incidentes graves y estrategias para garantizar la seguridad a largo plazo.
Otro aspecto clave es la obligación de notificar a las autoridades cualquier incidente significativo relacionado con el uso del modelo. Esto incluye problemas técnicos, como fallos en el rendimiento o la aparición de sesgos inesperados (10) , así como incidentes éticos o jurídicos, como el uso indebido del modelo en aplicaciones que violen derechos fundamentales. Este enfoque proactivo asegura que los riesgos se aborden de manera temprana y efectiva, minimizando su impacto en la sociedad y fortaleciendo la confianza pública en las tecnologías de IA.
V. Gobernanza y evaluación continua
La gobernanza desempeña un papel central en el primer proyecto de Código de buenas prácticas en materia de inteligencia artificial de finalidad general, reconociendo que la regulación efectiva de la IA no se limita a las medidas técnicas, sino que requiere una estructura organizativa sólida que promueva la rendición de cuentas, la transparencia y la supervisión integral de los riesgos (11) . El documento establece un conjunto de directrices para que los proveedores de IA adopten prácticas de gobernanza que sean proporcionales a la escala y el impacto de sus modelos, fomentando una cultura organizativa orientada hacia la gestión responsable de riesgos (12) .
En primer lugar, el Código subraya la necesidad de asignar responsabilidades claras a nivel ejecutivo y de dirección. Esto implica que las organizaciones deben designar equipos o comités dedicados exclusivamente a la supervisión de riesgos relacionados con sus modelos de IA. Estos equipos deben tener la autoridad y los recursos necesarios para implementar las medidas de seguridad, realizar evaluaciones de riesgos y garantizar el cumplimiento normativo (13) . Este enfoque asegura que las decisiones relacionadas con la gestión de riesgos sean tomadas al más alto nivel, reforzando la rendición de cuentas dentro de la organización.
Las organizaciones deben realizar evaluaciones periódicas de sus marcos de seguridad, conocidas como Security Framework Assessments
El Código también establece que las organizaciones deben realizar evaluaciones periódicas de sus marcos de seguridad, conocidas como Security Framework Assessments. Estas evaluaciones deben incluir revisiones internas y externas, asegurando que las medidas implementadas sean efectivas y que se ajusten a las mejores prácticas y estándares emergentes (14) . Además, se sugiere que estas evaluaciones sean realizadas por expertos independientes cuando los modelos presenten riesgos sistémicos significativos, lo que añade un nivel adicional de transparencia e imparcialidad al proceso (15) .
La evaluación continua no se limita a las revisiones formales, sino que también incluye la recopilación de datos sobre el rendimiento y el impacto del modelo en su entorno operativo. Esto puede implicar la monitorización de incidentes, la recopilación de comentarios de usuarios y la realización de pruebas de estrés para identificar vulnerabilidades potenciales. Este enfoque dinámico permite a los proveedores ajustar sus estrategias de seguridad en tiempo real, respondiendo a los desafíos emergentes y mejorando la resiliencia del modelo frente a riesgos imprevistos.
Otro aspecto crucial de la gobernanza es la transparencia en la comunicación con las partes interesadas (16) . El Código enfatiza que las organizaciones deben proporcionar información clara y accesible sobre las medidas de seguridad adoptadas, los riesgos identificados y las estrategias de mitigación. Esta comunicación no solo fortalece la confianza pública en las tecnologías de IA, sino que también fomenta la colaboración entre los diferentes actores del ecosistema, incluidos los reguladores, los desarrolladores y los usuarios.
VI. Conclusiones y perspectivas futuras
El primer proyecto de Código de buenas prácticas en materia de inteligencia artificial de finalidad general representa un hito en la regulación de la inteligencia artificial, no solo dentro de la Unión Europea, sino a nivel global. Este documento preliminar, aunque en constante evolución, ofrece un marco exhaustivo para abordar los desafíos técnicos, éticos y sociales que plantea el uso de modelos de IA de propósito general. Al hacerlo, no solo busca mitigar los riesgos asociados a estas tecnologías, sino también promover un ecosistema que fomente la innovación responsable y el desarrollo sostenible.
La ambición del Código no se limita a regular el presente; está diseñado para ser «a prueba del futuro», incorporando mecanismos que le permitan adaptarse a los avances tecnológicos y a los cambios en las dinámicas sociales y económicas. Esta flexibilidad es esencial en un campo como la IA, donde las tecnologías evolucionan rápidamente y los riesgos pueden emerger de formas impredecibles (17) .
Además, el Código tiene el potencial de establecer un estándar global para la regulación de la IA, sirviendo como modelo para otras jurisdicciones que buscan equilibrar la promoción de la innovación con la protección de los derechos fundamentales. La Unión Europea, al adoptar este enfoque proactivo y ético, refuerza su posición como líder mundial en la gobernanza tecnológica, demostrando que es posible regular de manera efectiva sin sofocar el desarrollo tecnológico.
El éxito del Código dependerá en gran medida de la participación activa de las partes interesadas, incluidas las empresas, los reguladores, la academia y la sociedad civil. La retroalimentación continua y la colaboración serán esenciales para refinar las disposiciones del Código y garantizar que sean prácticas, efectivas y ampliamente aceptadas. Este proceso iterativo no solo mejora la calidad del Código, sino que también fortalece la confianza en su implementación y en los objetivos que persigue.
En última instancia, el primer proyecto de Código de buenas prácticas en materia de inteligencia artificial de finalidad general es más que un documento regulador; es una declaración de principios que refleja el compromiso de la Unión Europea con un desarrollo tecnológico que sea ético, inclusivo y orientado al bienestar común. Si se implementa con éxito, este Código tiene el potencial de transformar la manera en que se desarrolla y utiliza la IA, asegurando que estas tecnologías sirvan como herramientas para el progreso humano y no como fuentes de desigualdad o conflicto. Al mirar hacia el futuro, el Código se posiciona como una pieza central en el mosaico de la gobernanza global de la IA, marcando el camino hacia un mundo donde la innovación y la ética coexistan en armonía.
VII. Bibliografía
AGUIRRE SALA, J. F.. «Especificando la responsabilidad algorítmica». Teknokultura: Revista de Cultura Digital y Movimientos Sociales, Vol. 19, N.o. 2, 2022, pp. 265-275.
ALONSO SALGADO, C.. «El problema de la falta de transparencia en la interacción de la inteligencia artificial y la justicia». Inteligencia artificial legal y administración de justicia, dir. por Sonia Calaza López, Mercedes Llorente Sánchez-Arjona, 2022, pp. 517-523.
ÁLVAREZ CUESTA, H.. «Experiencias convencionales de regulación del impacto laboral de la inteligencia artificial y su uso con fines de control». Trabajo y derecho: nueva revista de actualidad y relaciones laborales, N.o. Extra 19, 2024.
ARELLANO TOLEDO, W.. «El derecho a la transparencia algorítmica en Big Data e inteligencia artificial». Revista General de Derecho Administrativo, N.o. 50, 2019.
ARRABALES MORENO, R.. Evaluation and development of consciousness in artificial cognitive systems. Tesis doctoral dirigida por Agapito Ismael Ledezma Espino (dir. tes.), María Araceli Sanchís de Miguel (dir. tes.), Universidad Carlos III de Madrid, 2011.
BATALLER I RUIZ, E.. «Inteligencia artificial: ¿mecanismo para la integración humana o herramienta de perpetuación del supremacismo occidental?». Revista Boliviana de Derecho, N.o. 38, 2024, pp. 504-515.
BELLOTO GÓMEZ, J. M.. «Explicabilidad e inteligencia artificial responsable. Recomendaciones "aterrizadas" al día a día de las empresas». Transparencia y explicabilidad de la inteligencia artificial, coord. por Lorenzo Cotino Hueso, Jorge Castellanos Claramunt, 2022, pp. 199-224.
BONSON PONTE, E., BEDNÁROVÁ, M.. «Transparencia e inteligencia artificial: la necesidad de un marco de información de referencia». AECA: Revista de la Asociación Española de Contabilidad y Administración de Empresas, N.o. 135 (septiembre), 2021, pp. 4-5.
COTINO HUESO, L.. «Transparencia y explicabilidad de la inteligencia artificial y "compañía" (comunicación, interpretabilidad, inteligibilidad, auditabilidad, testabilidad, comprobabilidad, simulabilidad…). Para qué, para quién y cuánta». Transparencia y explicabilidad de la inteligencia artificial, coord. por Lorenzo Cotino Hueso, Jorge Castellanos Claramunt, 2022, pp. 29-70.
DE LA NUEZ SÁNCHEZ-CASCADO, E.. «Inteligencia artificial y transparencia». Derecho Digital e Innovación. Digital Law and Innovation Review, N.o. 5 (abril-junio), 2020.
DOMÍNGUEZ RIGO, M.. «La inteligencia artificial, los medios audiovisuales y la desinformación: riesgos potenciales y posibles soluciones». Buenas prácticas universitarias para la mejora del compromiso educativo y social, coord. por Sara González Yubero, 2024, pp. 1043-1057.
FERNÁNDEZ RODRÍGUEZ, J.. «Gobernando la IA en los servicios públicos: buenas prácticas para sacar lo mejor de la IA en el desarrollo de los servicios sociales». Consultor de los ayuntamientos y de los juzgados: Revista técnica especializada en administración local y justicia municipal, N.o. Extra 3, 2024.
GUTIÉRREZ DAVID, M. E.. «Acceso al código fuente y a los algoritmos de las Administraciones inteligentes. Lecciones a partir de experiencias comparadas». Transparencia y explicabilidad de la inteligencia artificial, coord. por Lorenzo Cotino Hueso, Jorge Castellanos Claramunt, 2022, pp. 135-168.
MASSAGUER, L.. «Formular bones preguntes: la IA en la professió». COMeIN: Revista de los Estudios de Ciencias de la Información y de la Comunicación, N.o. 139, 2024.
PERIS MANGUILLOT, A.. «Algoritmos: ¿podemos hacerlos transparentes y trazables en su proceso?». Transparencia y explicabilidad de la inteligencia artificial, coord. por Lorenzo Cotino Hueso, Jorge Castellanos Claramunt, 2022, pp. 71-83.
RIVES FULLEDA, M. R.. «La inteligencia artificial: un nuevo reto en el tratamiento de los datos personales». Protección de datos, transparencia, asociacionismo y voluntariado: buenas prácticas de actuación con el colectivo migrante, coord. por Lerdys Saray Heredia Sánchez; Alfonso Ortega Giménez (dir.), 2023, pp. 87-112.
SANGÜESA, R.. «Intel·ligència artificial i transparència algorítmica: "It’s complicated"». BiD: Textos universitaris de biblioteconomia i documentació, N.o. 41, 2018.
VESTRI, G.. «La inteligencia artificial ante el desafío de la transparencia algorítmica: Una aproximación desde la perspectiva jurídico-administrativa». Revista Aragonesa de Administración Pública, N.o. 56, 2021, pp. 368-398.