I. Introducción
El avance tecnológico impulsado por la IA está revolucionando no solo la economía y la productividad, sino también la manera en la que los derechos y las obligaciones se estructuran en las sociedades modernas. Esta tecnología tiene la capacidad de transformar sectores fundamentales, como el transporte, la atención sanitaria, la educación y los servicios financieros, proporcionando eficiencia y capacidad de procesamiento sin precedentes. No obstante, con estas oportunidades también surgen importantes desafíos éticos, sociales y legales que deben ser abordados para evitar posibles daños a los derechos fundamentales de las personas.
En el ámbito normativo, la regulación de la IA se ha convertido en un terreno de debate urgente. Diferentes regiones del mundo han desarrollado marcos regulatorios propios, los cuales a menudo reflejan las prioridades y valores particulares de cada jurisdicción. Mientras que la Unión Europea ha apostado por un enfoque normativo que prioriza la protección de los derechos fundamentales, la ética y la seguridad, Estados Unidos y China se han centrado más en promover la innovación tecnológica y mantener la competitividad en el mercado global. Estas diferencias en los enfoques regulatorios han generado una fragmentación normativa que crea incertidumbre y complica la capacidad de alcanzar un marco global coherente.
Esta fragmentación normativa, aunque aparentemente reciente en el contexto de la IA, tiene sus raíces en problemas similares experimentados en el derecho internacional. La proliferación de normas y marcos regulatorios especializados, la competencia entre diferentes jurisdicciones y la falta de un marco unificado son características que también han afectado históricamente al derecho internacional, particularmente en las últimas décadas (do Amaral Júnior, 2010). Este trabajo explora las causas de la fragmentación del derecho de la IA, sus consecuencias, y los desafíos que plantea, proponiendo estrategias para mitigar sus efectos negativos y para promover un enfoque más coherente y coordinado para la regulación de la IA.
II. Fragmentación normativa en el derecho de la Inteligencia Artificial
1. Diversidad de enfoques regulatorios: prioridades y valores divergentes
Una de las causas fundamentales de la fragmentación del derecho de la IA es la diversidad de enfoques regulatorios adoptados por las principales jurisdicciones a nivel global. Cada región ha desarrollado un marco normativo que se ajusta a sus prioridades y valores, lo cual ha dado lugar a regulaciones divergentes y, en algunos casos, contradictorias. La Unión Europea, por ejemplo, ha establecido un enfoque exhaustivo que clasifica a la IA según los niveles de riesgo y que establece requisitos estrictos para los sistemas de alto riesgo (Comisión Europea, 2021). Esta regulación intenta proteger los derechos fundamentales de los ciudadanos europeos, estableciendo estándares altos de transparencia, equidad y seguridad.
En contraposición, Estados Unidos ha optado por un enfoque más laxo y flexible, en el que las normativas se basan en principios voluntarios y la autorregulación por parte de la industria. Este enfoque se justifica con la necesidad de mantener el liderazgo global en innovación tecnológica y evitar imponer restricciones que puedan desincentivar el desarrollo y la competitividad (National Institute of Standards and Technology, 2020). Mientras que la UE intenta garantizar la protección de los ciudadanos, Estados Unidos prioriza la innovación, lo que resulta en una disparidad significativa en cuanto a la carga regulatoria y los estándares de protección aplicables.
Por su parte, China ha seguido un enfoque diferente, donde la prioridad es el control estatal y la seguridad nacional. La IA en China está regulada en función de las necesidades estratégicas del Estado, y se promueve tanto el desarrollo tecnológico como la utilización de la IA para el control y la vigilancia social (Yang, 2021). Esta diferencia de enfoques crea un mosaico regulatorio global que no solo refleja diferentes valores y prioridades, sino que también contribuye a la fragmentación normativa.
2. La competencia normativa entre jurisdicciones y su impacto en la fragmentación
La competencia normativa entre las principales potencias tecnológicas ha sido otra de las causas que ha contribuido significativamente a la fragmentación del derecho de la IA. Jean-Sylvestre Bergé (2010) señala que la competencia entre los diferentes marcos regulatorios genera una lógica de conflicto que a menudo dificulta la armonización y la adopción de normas comunes. Esta lógica de competencia se hace evidente en el fenómeno conocido como «forum shopping», donde las empresas desarrolladoras de tecnología buscan operar en jurisdicciones con menos restricciones y menor carga regulatoria para maximizar su flexibilidad y minimizar los costos regulatorios.
Las empresas, en un intento por evitar los requisitos regulatorios más estrictos, pueden optar por operar en países con regulaciones más laxas
El «forum shopping» es una estrategia que no solo socava los esfuerzos de las jurisdicciones que intentan garantizar un uso ético y seguro de la IA, sino que también genera desigualdades en la protección de los derechos fundamentales. Las empresas, en un intento por evitar los requisitos regulatorios más estrictos, pueden optar por operar en países con regulaciones más laxas, lo cual crea un escenario en el que la protección de los derechos depende del lugar donde opera la empresa, en lugar de ser una garantía universal. Esta dinámica de competencia normativa contribuye a la fragmentación y afecta negativamente la coherencia y la justicia del sistema normativo global.
3. Falta de Coordinación internacional y la necesidad de un marco global unificado
Otra causa importante de la fragmentación del derecho de la IA es la falta de coordinación internacional en el desarrollo de marcos regulatorios. Martín Rodríguez (2008) destaca que la falta de coordinación en el derecho internacional ha sido históricamente una de las principales causas de la fragmentación normativa, y lo mismo puede decirse del derecho de la IA. Aunque existen esfuerzos internacionales para promover la cooperación en la regulación de la IA, como la Iniciativa Global sobre la Ética de la IA de la UNESCO y los principios de la OCDE sobre la IA, estos esfuerzos aún no han resultado en la creación de un marco unificado y vinculante.
La falta de un organismo internacional con autoridad para desarrollar y supervisar el cumplimiento de normas vinculantes sobre IA ha llevado a la creación de un mosaico normativo que no solo es divergente, sino que a menudo es incompatible entre sí. Esta situación dificulta la previsibilidad y la coherencia en la aplicación del derecho, lo cual es esencial para garantizar tanto la protección de los derechos fundamentales como la seguridad jurídica para las empresas que desarrollan y utilizan tecnología de IA.
III. Consecuencias de la fragmentación del derecho de la IA
1. Incertidumbre normativa y efectos sobre la innovación
Una de las principales consecuencias de la fragmentación del derecho de la IA es la incertidumbre normativa que genera tanto para los desarrolladores como para los usuarios de la tecnología. Tal como señala Alberto do Amaral Júnior (2010), «la impresionante proliferación normativa entreabrió la posibilidad de conflictos normativos y profundizó la tendencia de fragmentación del Derecho internacional en múltiples subsistemas dotados de lógica propia y fines específicos» (p. 62). Esta afirmación es completamente aplicable al derecho de la IA, donde la diversidad de enfoques regulatorios crea incertidumbre sobre cuáles son las normas aplicables y qué obligaciones deben cumplir los desarrolladores de IA en cada jurisdicción.
La falta de claridad sobre las normativas aplicables puede llevar a las empresas a ser más cautelosas y a limitar sus inversiones en el desarrollo de nuevas tecnologías
Esta incertidumbre puede tener un impacto negativo sobre la innovación, ya que las empresas enfrentan mayores costos y complejidad al intentar cumplir con diferentes marcos regulatorios en diferentes regiones. Además, la falta de claridad sobre las normativas aplicables puede llevar a las empresas a ser más cautelosas y a limitar sus inversiones en el desarrollo de nuevas tecnologías, especialmente en aquellos países donde la carga regulatoria es más elevada. La incertidumbre también afecta a los consumidores y usuarios de la IA, quienes no tienen garantía de que sus derechos serán protegidos de manera uniforme, independientemente de la jurisdicción en la que se encuentren.
2. Desigualdad en la protección de los derechos fundamentales
La fragmentación del derecho de la IA también genera desigualdades en la protección de los derechos fundamentales, ya que diferentes marcos normativos ofrecen distintos niveles de protección. La Unión Europea, por ejemplo, ha desarrollado un enfoque que garantiza altos estándares de protección para los derechos de los ciudadanos, incluyendo el derecho a la transparencia, la privacidad y la no discriminación en la toma de decisiones automatizadas. En cambio, en otras jurisdicciones, estos derechos pueden no estar adecuadamente protegidos o pueden ser completamente inexistentes.
Esta situación crea una desigualdad que socava los principios de equidad y justicia, ya que los individuos no gozan del mismo nivel de protección frente a los riesgos asociados con la IA en todas partes. Esta disparidad no solo afecta a los ciudadanos de aquellas jurisdicciones con menor protección, sino que también tiene implicaciones globales, ya que los sistemas de IA desarrollados en jurisdicciones con regulaciones laxas pueden ser utilizados en regiones donde se espera un nivel más alto de protección.
3. Dificultad para determinar la responsabilidad y garantizar la transparencia
La fragmentación normativa también plantea desafíos importantes para garantizar la responsabilidad y la transparencia en la toma de decisiones automatizadas. La responsabilidad en el contexto de la IA es un tema complejo, ya que involucra a múltiples actores, incluidos los desarrolladores del algoritmo, los propietarios del sistema y los usuarios. La falta de un marco normativo coherente y unificado dificulta la determinación de la responsabilidad en caso de que un sistema de IA cause daño, ya que diferentes jurisdicciones pueden tener enfoques diferentes sobre quién debe asumir la responsabilidad y en qué circunstancias.
Además, la fragmentación normativa dificulta la implementación de estándares de transparencia coherentes a nivel global. La transparencia es un principio fundamental para garantizar la confianza en los sistemas de IA y para permitir que los usuarios comprendan cómo se toman las decisiones que les afectan. Sin embargo, en un contexto de fragmentación normativa, las obligaciones de transparencia pueden variar considerablemente de una jurisdicción a otra, lo que dificulta la creación de un entorno en el que los usuarios puedan confiar plenamente en los sistemas automatizados.
IV. Aprendiendo del Derecho internacional: paralelismos y lecciones para la IA
La fragmentación del derecho de la IA no es un fenómeno aislado, sino que presenta notables paralelismos con la fragmentación experimentada por el derecho internacional. En las últimas décadas, el derecho internacional se ha expandido para abordar una amplia variedad de temas, desde el comercio internacional hasta los derechos humanos y el medio ambiente. Esta expansión ha llevado a la creación de múltiples subsistemas normativos que, aunque necesarios, han generado tensiones y conflictos normativos que afectan la coherencia del sistema (Bergé, 2010).
1. Fragmentación del Derecho Internacional: un análisis comparativo
En el derecho internacional, la fragmentación ha sido provocada por la necesidad de abordar desafíos específicos a través de regímenes autónomos. Esta diversificación ha resultado en la creación de subsistemas normativos que, aunque bien intencionados, pueden entrar en conflicto entre sí, creando una falta de coherencia normativa que afecta la justicia y la equidad. Tal como indica Koskenniemi (2006), la diversificación del derecho internacional ha dado lugar a una «proliferación normativa» que presenta desafíos importantes para la coherencia y la aplicación efectiva del derecho.
En el contexto del derecho de la IA, la fragmentación presenta desafíos similares. Al igual que en el derecho internacional, la falta de un marco normativo unificado ha llevado a la coexistencia de normativas divergentes que pueden ser incompatibles entre sí. Esta falta de coherencia crea incertidumbre y compromete la capacidad de garantizar la justicia en la aplicación del derecho, especialmente cuando los sistemas de IA tienen un impacto significativo en los derechos fundamentales de los individuos.
2. El Papel del ius cogens y su aplicación al derecho de la IA
Una posible lección que se puede aprender del derecho internacional es la importancia del ius cogens, o normas imperativas, que son normas de derecho internacional general que no admiten derogación. Estas normas se establecen para proteger intereses fundamentales de la comunidad internacional, tales como la prohibición de la tortura y el genocidio, y constituyen un límite a la autonomía de los Estados en la creación de normativas particulares (Pagliari, 2010).
En el contexto de la IA, podría considerarse la posibilidad de desarrollar un conjunto de principios fundamentales o normas imperativas que sean vinculantes para todos los Estados y que establezcan los límites dentro de los cuales se debe desarrollar y aplicar la IA. Estos principios podrían incluir, por ejemplo, la obligación de garantizar la transparencia en los algoritmos, el respeto a los derechos humanos y la no discriminación. La adopción de normas imperativas en el contexto de la IA ayudaría a garantizar que ciertos derechos fundamentales estén siempre protegidos, independientemente del lugar en el que se utilice la tecnología.
V. Propuestas para un marco normativo coherente y coordinado para la IA
La fragmentación del derecho de la IA presenta desafíos significativos, pero también brinda la oportunidad de desarrollar estrategias que puedan mejorar la coherencia y la eficacia del sistema normativo global. A continuación, se presentan varias propuestas para abordar la fragmentación y promover un enfoque coordinado y coherente para la regulación de la IA.
1. Desarrollo de normas internacionales comunes
Una de las estrategias más efectivas para reducir la fragmentación normativa es el desarrollo de normas internacionales comunes que puedan ser adoptadas por todos los Estados. Estas normas podrían establecer principios fundamentales para la transparencia, la responsabilidad y la ética en la IA, proporcionando un marco de referencia común para todos los países. La adopción de normas internacionales comunes no solo ayudaría a reducir las diferencias entre los marcos normativos nacionales y regionales, sino que también proporcionaría un entorno regulatorio más coherente y predecible para los desarrolladores y usuarios de IA.
La Iniciativa Global sobre la Ética de la IA de la UNESCO es un ejemplo de un esfuerzo internacional destinado a desarrollar principios comunes para la regulación de la IA. Sin embargo, es esencial que estos principios se traduzcan en normas vinculantes que puedan ser adoptadas por los Estados y que tengan un impacto real en la regulación de la IA a nivel global.
2. Creación de un organismo internacional para la supervisión de la IA
La falta de un organismo internacional encargado de desarrollar y supervisar el cumplimiento de normas vinculantes sobre IA ha sido una de las principales causas de la fragmentación normativa. Para abordar este problema, podría considerarse la creación de un organismo internacional con autoridad para establecer estándares vinculantes sobre la IA y supervisar su cumplimiento. Este organismo podría desempeñar un papel similar al de la Organización Mundial del Comercio (OMC) en el ámbito del comercio internacional, facilitando la cooperación y la coordinación entre los Estados y promoviendo la adopción de normas comunes.
Podría considerarse la creación de un organismo internacional con autoridad para establecer estándares vinculantes sobre la IA y supervisar su cumplimiento
Este organismo también podría tener la autoridad para mediar y resolver conflictos normativos, garantizando que las diferentes normativas sobre IA sean coherentes y que los derechos fundamentales estén adecuadamente protegidos en todas las jurisdicciones.
3. Adopción del enfoque del «Diálogo de las Fuentes»
Alberto do Amaral Júnior (2010) propone el concepto del «diálogo de las fuentes» como una técnica para prevenir y resolver conflictos normativos en el derecho internacional. Este enfoque consiste en aplicar de manera simultánea y coordinada las diferentes normativas, con el objetivo de evitar la incompatibilidad y promover la coherencia. En el contexto del derecho de la IA, el «diálogo de las fuentes» podría facilitar la interacción entre los distintos marcos normativos nacionales y regionales, identificando complementariedades y evitando conflictos normativos.
El «diálogo de las fuentes» también podría aplicarse mediante la creación de foros de cooperación internacional donde los legisladores y reguladores puedan discutir y coordinar sus enfoques sobre la regulación de la IA. Estos foros podrían facilitar la creación de directrices comunes y promover la adopción de enfoques armonizados para abordar los desafíos regulatorios que plantea la IA.
4. Promoción de la cooperación regulatoria internacional
La cooperación regulatoria internacional es esencial para reducir la fragmentación normativa y promover un enfoque coherente para la regulación de la IA. Los Estados deben trabajar en estrecha cooperación para desarrollar marcos normativos que sean complementarios y coherentes, evitando la adopción de normativas contradictorias o incompatibles. La cooperación regulatoria podría facilitar la creación de estándares internacionales comunes, la adopción de mecanismos de resolución de conflictos normativos y la implementación de mejores prácticas en la regulación de la IA.
Además, la cooperación internacional podría fomentar la creación de acuerdos bilaterales o regionales que promuevan la armonización normativa y permitan a los países compartir conocimientos y experiencias sobre la regulación de la IA. Estos acuerdos podrían ser particularmente útiles para garantizar la protección de los derechos fundamentales y la responsabilidad en la toma de decisiones automatizadas.
VI. Conclusiones
La fragmentación del derecho de la IA plantea desafíos significativos para la coherencia y la justicia del marco normativo global. La existencia de múltiples marcos regulatorios divergentes crea incertidumbre tanto para los desarrolladores de IA como para los usuarios y afectados por las decisiones automatizadas. La falta de coordinación entre los diferentes subsistemas normativos compromete la protección de los derechos fundamentales, genera desigualdades en la aplicación del derecho y dificulta la garantía de la responsabilidad y la transparencia en la toma de decisiones automatizadas.
Para abordar estos desafíos, es esencial desarrollar un marco normativo coherente y coordinado a nivel internacional. La creación de normas internacionales comunes, la adopción del «diálogo de las fuentes» como técnica para la resolución de conflictos normativos, la creación de un organismo internacional encargado de supervisar el cumplimiento de las normativas sobre IA y la promoción de la cooperación regulatoria internacional son estrategias fundamentales para reducir la fragmentación normativa y mejorar la coherencia del sistema normativo global para la IA. Solo mediante la adopción de un enfoque coherente y coordinado se podrá garantizar la protección de los derechos fundamentales y la promoción de un desarrollo seguro, ético y responsable de la inteligencia artificial.
VII. Bibliografía
Amaral Júnior, A. (2010). El «diálogo» de las fuentes: fragmentación y coherencia en el derecho internacional contemporáneo. Revista Española de Derecho Internacional, LXII(1), 61-88.
Bergé, J.-S. (2010). El derecho europeo ante la fragmentación del derecho aplicable a las relaciones internacionales: la mirada del internacionalprivatista. En Anuario Español de Derecho Internacional Privado, t. X, 49-68.
Dupuy, P.-M. (2007). Un débat doctrinal à l’ère de la globalisation: sur la fragmentation du droit international. European Journal of Legal Studies, 1(1).
Koskenniemi, M. (2006). Fragmentación del derecho internacional: dificultades derivadas de la diversificación y expansión del derecho internacional. Informe A/CN.4/L.682.
Martín Rodríguez, P. J. (2008). Sistema, fragmentación y contencioso internacional. En R.E.D.I., vol. LX, pp. 458-460.
Pagliari, A. S. (2010). Reflexiones sobre la fragmentación del derecho internacional: Aplicación y efectos. Revista Española de Derecho Internacional, 2010.
Comisión Europea. (2021). Propuesta de Regulación de la Inteligencia Artificial. Bruselas: Comisión Europea.
National Institute of Standards and Technology. (2020). Planificación para una Estrategia Nacional sobre la Inteligencia Artificial. Washington, D.C.: NIST.
Yang, H. (2021). Artificial Intelligence and National Security in China: Strategy and Regulation. Beijing: China Institute for Innovation.