I. Introducción
El avance acelerado de la inteligencia artificial (en adelante, IA) está transformando no solo la economía global, sino también la estructura del poder geopolítico, convirtiendo esta tecnología en un recurso estratégico clave para la seguridad nacional. En este contexto, Estados Unidos se enfrenta a una serie de desafíos y oportunidades que requieren un enfoque meticuloso y cohesionado. En octubre de 2024, la Administración Biden emitió un memorándum de orientación que establece directrices para el desarrollo de una estrategia nacional que no solo contemple el control y la regulación de la IA, sino que también enfatice la necesidad de un uso ético y responsable de esta tecnología, particularmente en sus aplicaciones en defensa y seguridad.
Este memorándum representa un esfuerzo por armonizar las múltiples perspectivas que existen en torno a la regulación de la IA, abordando la disparidad de criterios que podrían surgir en la elaboración de leyes en diferentes Estados. Al definir un marco integral que abarca la gestión del talento, la protección de la propiedad intelectual y la creación de normas internacionales, el gobierno estadounidense busca no solo fortalecer su liderazgo global en IA, sino también establecer un camino claro y coherente que sirva como guía para otros países (1) . Este análisis jurídico examinará las implicaciones de estas políticas, explorando las interacciones entre la regulación de la IA y los principios éticos, así como los desafíos jurídicos que surgen en el contexto de la seguridad nacional. A través de este enfoque, se buscará contribuir a un debate informado sobre cómo los Estados pueden desarrollar normas que protejan sus intereses mientras promueven un uso responsable de la IA en todo el mundo.
II. La inteligencia artificial como recurso estratégico en la competencia global
La IA ha dejado de ser una mera curiosidad tecnológica para convertirse en un componente esencial de las estrategias de seguridad nacional de las potencias globales, particularmente en el caso de Estados Unidos y China (2) . El memorándum de 2024 señala que la IA no solo es un activo estratégico, sino que también es una herramienta que puede reconfigurar el equilibrio de poder mundial. Esta dinámica ha dado lugar a lo que algunos analistas describen como una «nueva carrera tecnológica», en la que los países no solo compiten por desarrollar tecnologías avanzadas, sino también por el control de sus aplicaciones en contextos de defensa y seguridad (3) .
En este marco, la IA se presenta como un recurso de doble filo. Por un lado, su implementación efectiva puede aumentar las capacidades defensivas y de disuasión de un país, proporcionando ventajas significativas en conflictos armados y operaciones de inteligencia (4) . Por otro lado, el uso irresponsable o malintencionado de la IA podría facilitar la manipulación de procesos democráticos, el espionaje industrial y la erosión de los derechos humanos a niveles sin precedentes (5) . Por lo tanto, la política de Estados Unidos en torno a la IA busca equilibrar estos riesgos y oportunidades, con el objetivo de asegurar que su liderazgo en esta tecnología no solo se mantenga, sino que también se utilice de manera que promueva un orden internacional basado en valores democráticos. Precisamente, se llega a afirmar lo siguiente en el documento:
«Para preservar y ampliar las ventajas de los Estados Unidos en materia de inteligencia artificial, es política del Gobierno de los Estados Unidos promover el progreso, la innovación y la competencia en el desarrollo interno de la inteligencia artificial; proteger el ecosistema de inteligencia artificial de los Estados Unidos contra amenazas de inteligencia extranjera; y gestionar los riesgos para la seguridad, la protección y la fiabilidad de la inteligencia artificial. El liderazgo en el desarrollo responsable de la inteligencia artificial beneficia la seguridad nacional de los Estados Unidos al permitir aplicaciones directamente relevantes para la misión de seguridad nacional, desbloquear el crecimiento económico y evitar sorpresas estratégicas. El liderazgo tecnológico de los Estados Unidos también confiere beneficios globales al permitir que entidades con ideas afines mitiguen colectivamente los riesgos de un uso indebido y de accidentes de la inteligencia artificial, eviten la propagación descontrolada del autoritarismo digital y prioricen la investigación vital.»
El memorándum establece la necesidad de consolidar el liderazgo estadounidense en el desarrollo de tecnologías avanzadas, al tiempo que se busca prevenir que rivales estratégicos, como China y Rusia, logren ventajas significativas en el ámbito de la IA (6) . Este enfoque no se limita a una cuestión de competitividad tecnológica; se extiende a un imperativo de seguridad nacional que subraya la necesidad de control sobre el desarrollo y la implementación de la IA (7) . Para ello, se propone establecer mecanismos de colaboración internacional que permitan a Estados Unidos y sus aliados compartir información, desarrollar estándares éticos comunes y asegurar que las tecnologías emergentes se utilicen de manera que no socaven los principios democráticos.
III. La política de talento como prioridad de seguridad nacional
La disponibilidad de talento altamente calificado en el ámbito de la IA ha emergido como un componente esencial de la estrategia de seguridad nacional de Estados Unidos. Este reconocimiento se traduce en una política que prioriza la atracción y retención de expertos en tecnología, tanto nacionales como extranjeros. La Administración Biden ha señalado la existencia de una carencia significativa de profesionales en IA, lo que ha llevado al memorándum a implementar medidas de política migratoria destinadas a facilitar la llegada de talento especializado a territorio estadounidense (8) .
Sin embargo, la captación de talento extranjero presenta un desafío crucial en términos de seguridad nacional. Es imperativo establecer procedimientos rigurosos que permitan la identificación y filtrado de posibles amenazas, garantizando que no se permita la infiltración de agentes de inteligencia extranjeros en las instituciones nacionales. Para abordar esta situación, el memorándum ordena la cooperación entre el Departamento de Seguridad Nacional (en adelante, por sus siglas en inglés, DHS), el Departamento de Estado y el Departamento de Defensa (en adelante, por sus siglas en inglés, DoD) para crear un marco de selección de talento que no solo favorezca la competitividad tecnológica, sino que también proteja los intereses estratégicos del país.
Además, el memorándum exige que las principales agencias gubernamentales realicen análisis periódicos del mercado de talento, tanto doméstico como internacional. Estos estudios son esenciales para identificar proactivamente amenazas emergentes y oportunidades en el sector de la IA, proporcionando información crítica que permita ajustar las políticas de captación de talento según las condiciones geopolíticas y las necesidades de las agencias, como la Agencia de Seguridad Nacional (en adelante, por sus siglas en inglés, NSA). Sin embargo, esta dependencia del talento extranjero podría convertirse en una vulnerabilidad estratégica, ya que cualquier fuga de talento puede llevar a una disminución de la autonomía de Estados Unidos en un sector crucial para su seguridad. Este dilema plantea la necesidad de encontrar un equilibrio entre la atracción de talento y la protección de los intereses nacionales, que debe ser cuidadosamente gestionado.
IV. Protección contra el espionaje industrial y amenazas a la propiedad intelectual
La protección de la propiedad intelectual y la infraestructura tecnológica es una de las prioridades más críticas establecidas en el memorándum de 2024. En un contexto donde la IA es considerada un recurso estratégico, la amenaza del espionaje industrial y la apropiación indebida de tecnologías se torna especialmente significativa. La experiencia histórica demuestra que los adversarios de Estados Unidos han recurrido a diversas tácticas, como el ciberespionaje, la infiltración en centros de investigación y colaboraciones académicas, para acceder a innovaciones y desarrollos tecnológicos.
El memorándum reconoce estos riesgos y enfatiza la necesidad de implementar salvaguardias jurídicas y mecanismos de seguridad que protejan las innovaciones en IA, garantizando que estas tecnologías se conviertan en una ventaja sostenible para la seguridad nacional (9) . Entre las medidas propuestas, el Comité de Inversiones Extranjeras en Estados Unidos (en adelante, por sus siglas en inglés, CFIUS) juega un papel fundamental al supervisar las inversiones en sectores estratégicos. Este comité tiene la autoridad para bloquear adquisiciones y fusiones que puedan comprometer la seguridad nacional, evaluando detenidamente las transacciones de capital extranjero que involucren la transferencia de tecnología sensible.
Además, el memorándum establece que el CFIUS debe monitorizar las inversiones en IA, identificando riesgos potenciales de transferencia tecnológica que puedan beneficiar a potencias rivales. Este enfoque proactivo es crucial para prevenir que tecnologías críticas caigan en manos de adversarios, asegurando que las capacidades defensivas de Estados Unidos se mantengan intactas y que la ventaja tecnológica se preserva.
Por otra parte, el memorándum también resalta la importancia de proteger la tecnología de IA contra métodos de acceso no convencionales, conocidos como «métodos de zona gris». Estos métodos incluyen colaboraciones académicas y alianzas tecnológicas que permiten a actores extranjeros aprovechar el acceso a proyectos de investigación y desarrollos innovadores. Para contrarrestar estas amenazas, se instruye al Consejo de Seguridad Nacional y a la Oficina del Director de Inteligencia Nacional (en adelante, por sus siglas en inglés, ODNI) para que revisen y ajusten sus prioridades, garantizando que se identifiquen y mitiguen de manera efectiva las amenazas a la propiedad intelectual en el sector de la IA (10) .
V. La gobernanza ética de la inteligencia artificial y sus implicaciones en la defensa nacional
La integración de la IA en los sistemas de defensa y seguridad nacional plantea desafíos éticos y jurídicos que deben ser abordados con urgencia. En un mundo donde la IA tiene el potencial de tomar decisiones críticas en situaciones de conflicto armado, el memorándum enfatiza la necesidad de que estas decisiones continúen bajo supervisión humana. Este principio es fundamental para adherirse a los principios del derecho internacional humanitario, que exige que las decisiones militares sean proporcionales, distintas y humanas.
Además, la supervisión del uso de la IA en la inteligencia y vigilancia debe alinearse con principios de transparencia y respeto a las libertades civiles. La automatización de procesos analíticos y la recopilación masiva de datos presentan riesgos significativos de violación a la privacidad, que deben ser mitigados a través de controles y políticas de responsabilidad (11) . En este contexto, el memorándum instruye a agencias de seguridad como la NSA y el DHS a desarrollar normas que garanticen que la IA se utilice de manera ética, respetando los derechos y libertades individuales, y limitando el riesgo de abusos.
El establecimiento de un marco ético en la gobernanza de la IA es crucial para asegurar que Estados Unidos se mantenga como un actor respetuoso de los derechos fundamentales (12) , incluso en el uso de tecnologías avanzadas para operaciones de seguridad. Esta preocupación ética debe traducirse en políticas y procedimientos claros que orienten la investigación, el desarrollo y la implementación de la IA en el ámbito de la defensa (13) .
VI. La construcción de normas globales en la regulación de la inteligencia artificial
La búsqueda de un enfoque global hacia la regulación de la IA es otro de los pilares centrales del memorándum de 2024. Estados Unidos ha reconocido que, dada la naturaleza transnacional de la tecnología, es imperativo establecer normas internacionales que regulen su uso, especialmente en contextos de seguridad y defensa (14) . Este esfuerzo es vital para asegurar que las capacidades de IA no se utilicen para socavar la estabilidad global ni para promover prácticas que violen los derechos humanos.
La Administración Biden ha hecho hincapié en la necesidad de liderar esta iniciativa a través de la cooperación internacional. Para lograrlo, el Departamento de Estado y otras agencias están encargadas de participar activamente en foros multilaterales, como las Naciones Unidas y el Grupo de los 7 (en adelante, por sus siglas en inglés, G7), donde se están desarrollando discusiones sobre la regulación de la IA. En estos foros, Estados Unidos busca fomentar la creación de acuerdos y normas internacionales que regulen el uso de la IA, estableciendo estándares que prioricen la ética y la responsabilidad.
La estrategia de Estados Unidos incluye el establecimiento de alianzas estratégicas con países aliados, fomentando la cooperación en la investigación y el desarrollo de buenas prácticas en el manejo de la IA. La creación de un marco normativo global no solo facilitará la interoperabilidad entre tecnologías, sino que también asegurará que las normas adoptadas por diferentes Estados se alineen con los principios democráticos y los derechos humanos.
Este enfoque diplomático es crucial en un momento en que el uso de la IA está en auge, ya que permitirá a Estados Unidos ejercer influencia sobre las decisiones de regulación que se están tomando a nivel internacional. La construcción de normas globales también es fundamental para prevenir que Estados Unidos pierda su liderazgo en el desarrollo de la IA, ya que sentará un precedente que otros países podrían seguir, lo que podría llevar a una fragmentación de la gobernanza en torno a esta tecnología crítica.
VII. Responsabilidad interinstitucional en el desarrollo y uso de la inteligencia artificial
La implementación efectiva de la IA en la seguridad nacional estadounidense exige una estructura de gobernanza interinstitucional robusta. El memorándum establece que las agencias gubernamentales relevantes deben conformar una especie de «junta de gobernanza de IA» (15) , compuesta por altos funcionarios responsables de supervisar y gestionar el uso seguro y ético de la IA en sus respectivas áreas. Esta estructura no solo busca promover la transparencia y la responsabilidad, sino que también es fundamental para garantizar la coordinación entre diferentes agencias que a menudo operan en silos (16) .
Cada junta de gobernanza de IA tiene la responsabilidad de desarrollar directrices y normas internas que establezcan procedimientos claros sobre el uso de la IA. Este enfoque es esencial para construir una cultura organizacional que priorice el respeto por los derechos humanos y la ética en el uso de la tecnología. Además, estas juntas deben actuar como un punto de referencia para la evaluación de riesgos asociados con la implementación de la IA, asegurando que las decisiones sean informadas y alineadas con los principios de la democracia. En este sentido, se llega a reseñar lo siguiente en el memorándum:
«Los organismos adoptarán las siguientes medidas para mejorar la comprensión básica de la seguridad, protección y confiabilidad de la IA:
(i) El Departamento de Defensa, el Departamento de Comercio, el Departamento de Energía, el Departamento de Seguridad Nacional, la Oficina de Información Nacional de la India (ODNI), la NSF, la NSA y la Agencia Nacional de Inteligencia Geoespacial (NGA) priorizarán, según corresponda y de conformidad con la legislación aplicable, la investigación sobre la seguridad y la confiabilidad de la IA. Según corresponda y de conformidad con las autoridades existentes, buscarán asociaciones según corresponda con instituciones líderes del sector público, la industria, la sociedad civil, la academia y otras instituciones con experiencia en estos dominios, con el objetivo de acelerar el progreso técnico y sociotécnico en la seguridad y confiabilidad de la IA. Este trabajo puede incluir investigación sobre la interpretabilidad, los métodos formales, las tecnologías que mejoran la privacidad, las técnicas para abordar los riesgos a las libertades civiles y los derechos humanos, la interacción entre humanos e IA y/o los efectos sociotécnicos de detectar y etiquetar contenido sintético y auténtico (por ejemplo, para abordar el uso malicioso de la IA para generar vídeos o imágenes engañosos, incluidos aquellos de naturaleza íntima estratégicamente dañina o no consensual, de figuras políticas o públicas).
(ii) El Departamento de Defensa, el Departamento de Comercio, el Departamento de Energía, el Departamento de Seguridad Nacional, la Oficina del Director de Inteligencia Nacional (ODNI), la NSF, la NSA y la NGA, según corresponda y de conformidad con la ley aplicable, priorizarán la investigación para mejorar la seguridad, la solidez y la confiabilidad de los sistemas y controles de IA. Estas entidades, según corresponda y de conformidad con la ley aplicable, se asociarán con otras agencias, la industria, la sociedad civil y el mundo académico. Cuando corresponda, el Departamento de Defensa, el Departamento de Seguridad Nacional (actuando a través de la CISA), la Oficina Federal de Investigaciones (FBI) y la NSA (actuando a través de la AISC) publicarán una guía no clasificada sobre las vulnerabilidades y amenazas conocidas de ciberseguridad de la IA; las mejores prácticas para evitar, detectar y mitigar dichos problemas durante el entrenamiento y la implementación de modelos; y la integración de la IA en otros sistemas de software. Este trabajo incluirá un examen del papel de los sistemas de IA utilizados en infraestructuras críticas y de las vulnerabilidades que estos pueden causar.»
La designación de un director de IA en cada agencia clave también debiera formar parte de esta estructura de gobernanza. Esta figura sería responsable de supervisar la implementación de políticas de IA en conformidad con las normas éticas y legales establecidas. Esta función es crítica, ya que permitirá que la responsabilidad en la adopción de tecnologías avanzadas no recaiga únicamente en el personal técnico, sino que sea una cuestión de política institucional.
El memorándum también aboga por la interoperabilidad entre los sistemas de IA utilizados por las diferentes agencias. Esto implica que las tecnologías desarrolladas y utilizadas en diversas entidades gubernamentales sean compatibles y puedan operar de manera coordinada. Este enfoque no solo busca maximizar la eficiencia de los recursos, sino que también establece un modelo de responsabilidad compartida en el uso de la IA, garantizando que la tecnología se utilice de forma ética y alineada con los principios de la democracia y la seguridad nacional.
La gobernanza interinstitucional en torno a la IA debe ser vista como un mecanismo para fomentar la confianza pública y garantizar que las tecnologías utilizadas en nombre de la seguridad nacional estén sujetas a un control y supervisión adecuados. La capacidad de responder a los desafíos y oportunidades que presenta la IA dependerá de esta estructura de gobernanza, que debe ser flexible y adaptable a los cambios en el entorno tecnológico y geopolítico.
VIII. Conclusiones
El desarrollo y uso de la IA en el ámbito de la seguridad nacional estadounidense refleja una estrategia integral que busca no solo maximizar las ventajas tecnológicas, sino también establecer un marco ético y legal que garantice el respeto de los derechos humanos y la estabilidad global. La estrategia de Estados Unidos posiciona al país como un líder en la regulación de la IA, creando normas y políticas que se alinean tanto con los intereses de seguridad nacional como con la promoción de valores democráticos en un contexto internacional cada vez más competitivo.
El desafío de establecer un camino claro para la regulación de la IA se ve acentuado por la diversidad de criterios que existen en el ámbito global. Las disparidades en las leyes y normas que diferentes Estados pueden aplicar crean un entorno complejo que podría dar lugar a inconsistencias y conflictos. Por lo tanto, la capacidad de Estados Unidos para consolidar alianzas estratégicas, fortalecer la colaboración interinstitucional y adaptarse a los cambios tecnológicos y geopolíticos será crucial. Este esfuerzo debe ser abordado con un enfoque multidimensional que involucre la diplomacia, la ética y la tecnología.
En última instancia, la intersección entre la IA, la ética y la seguridad nacional plantea un desafío complejo que requerirá un enfoque cooperativo para ser gestionado de manera efectiva. La gobernanza de la IA debe trascender la mera regulación tecnológica, convirtiéndose en un pilar fundamental para la construcción de un futuro donde la tecnología no solo sirva a intereses estratégicos, sino que también respete y promueva los principios de los derechos humanos y la dignidad humana en un mundo en rápida evolución.
IX. Bibliografía
ARBELÓ DÍAZ, ELENA y PÉREZ JIMÉNEZ, MARIO (2022). «Un sprint legal para la Inteligencia Artificial». Derecom: Revista Internacional de Derecho de la Comunicación y las Nuevas Tecnologías, N.o. 32.
ARBELÓ DÍAZ, ELENA y PÉREZ JIMÉNEZ, MARIO (2022). «Un sprint legal para la Inteligencia Artificial». Derecom: Revista Internacional de Derecho de la Comunicación y las Nuevas Tecnologías, N.o. 32.
ARTEAGA MARTÍN, FÉLIX (2019). «Contexto estratégico de la inteligencia artificial». En La inteligencia artificial, aplicada a la defensa, pp. 153-172.
AZNAR FERNÁNDEZ-MONTESINOS, FEDERICO (2019). «La inteligencia artificial como factor geopolítico». bie3: Boletín IEEE, N.o. 14, pp. 262-281.
CORVALÁN, JUAN GUSTAVO (2017). «Administración Pública digital e inteligente: transformaciones en la era de la inteligencia artificial». Revista de Direito Econômico e Socioambiental, Vol. 8, N.o. 2, pp. 26-66.
DELGADO RISS, BORIS y FERNÁNDEZ SÁNCHEZ, CARLOS MANUEL (2024). «Sí a la Inteligencia Artificial, pero con garantías». Revista SIC: ciberseguridad, seguridad de la información y privacidad, Vol. 33, N.o. 158, pp. 170-172.
DREXEL, BILL (2024). «La pugna entre Estados Unidos y China: el poder en la época de la inteligencia artificial». Vanguardia dossier, N.o. 90, pp. 18-25.
FOURNIER GUIMBAO, JOAQUÍN (2021). «Inteligencia artificial: una carrera hacia el futuro tecnológico». bie3: Boletín IEEE, N.o. 23, pp. 146-163.
GRIGORE, ANDREA ELENA (2022). «Derechos humanos e inteligencia artificial». IUS ET SCIENTIA: Revista electrónica de Derecho y Ciencia, Vol. 8, N.o. 1, pp. 164-175.
JIMÉNEZ LINARES, MARÍA JESÚS (2024). «Riesgos de los sistemas de inteligencia artificial generativa». Revista de privacidad y derecho digital, Vol. 9, N.o. 34, pp. 236-315.
MARTÍNEZ MARTÍNEZ, RICARD (2024). «Inteligencia Artificial y Protección de Datos». La Ley privacidad, N.o. 20.
MELIÁN NEGRÍN, MIGUEL ÁNGEL (2022). «Tecnología, inteligencia artificial y la desestabilización de la hegemonía global: China y Estados Unidos ante su dominio». bie3: Boletín IEEE, N.o. 26, pp. 1003-1025.
MORTIER, STEPHANE y CHRZANOVSKI, LAURENT (2023). «La dicotomía de los usos de la inteligencia artificial en seguridad nacional». Logos Guardia Civil: Revista Científica del Centro Universitario de la Guardia Civil, N.o. 1, pp. 327-346.
PÉREZ-UGENA COROMINA, MARÍA (2024). «La inteligencia artificial: definición, regulación y riesgos para los derechos fundamentales». Estudios de Deusto: revista de Derecho Público, Vol. 72, N.o. 1, pp. 307-337.
RODRÍGUEZ CARDONA, MARIOLA (2024). «Los intentos de regulación de la Inteligencia Artificial: Derecho Comparado entre España, Puerto Rico y Estados Unidos». Derecom: Revista Internacional de Derecho de la Comunicación y las Nuevas Tecnologías, N.o. 35.
RODRÍGUEZ, ÁLEX (2020). «Estados Unidos, China y los demás». Vanguardia dossier, N.o. 77, p. 3.
SEIJAS COSTA, RAQUEL (2023). «Políticas de comunicación e inteligencia artificial: nuevos desafíos». URVIO: Revista Latinoamericana de Estudios de Seguridad, N.o. 37.
URTUBEY, FEDERICO EDUARDO (2024). «Copyright en obras generadas con inteligencia artificial en Estados Unidos. Un análisis de cinco casos jurídicos actuales». Revista Iberoamericana de la Propiedad Intelectual, N.o. 20, pp. 89-119.