La reciente Orden Ejecutiva emitida por el presidente Biden, sobre el desarrollo y uso seguro y fiable de la Inteligencia Artificial (Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence) demuestra que la Administración Biden se está tomando en serio su responsabilidad no sólo de fomentar un ecosistema de IA dinámico, sino también de aprovechar y gobernar la IA. La orden hace creíble el lema proclamado por la administración norteamerciana en el sentido de que los Estados Unidos están comprometidos con una IA confiable (para el pueblo estadounidense y la comunidad global en general) al ordenar a las agencias que garanticen la seguridad, promuevan el desarrollo respetuoso de los derechos y la colaboración internacional, y protejan contra la discriminación..
Estas son las principales conclusiones de un primer análisis de esta norma, realizada por un grupo de expertos del Centro para el Desarrollo de una IA centrada en el Ser Humano de la Universidad de Stanford (Stanford University Human- Centered AI) que acaba de ser hecho público. El documento "Decoding the White House AI Executive Order’s Achievements", valora que la Orden es un gran paso adelante para garantizar que Estados Unidos permanezca a la vanguardia de la innovación responsable y, en particular, aprecia la creación el nuevo Comité de AI de la Casa Blanca (the White House AI Council), de unos responsables de IA (Chief AI Officers) y del apoyo que la Orden otorga a la investigación y el desarrollo y al fomento del talento en IA.
Con todo, destaca que hay muchas cosas que son más difíciles de llevar a cabo y que requerirán la activa involucración del Congreso, como la introducción de medidas regulatorias amplias para el sector privado, como nuevas formas de concesión de licencias, obligaciones de información y registro más allá del ámbito de la seguridad nacional, cambios en los organismos reguladores y, quizás lo más importante de todo, de mecanismos de financiación.
Y una apreciación relevante. En opinión de los expertos que han elaborado este análisis, la Orden del presidente Biden significa, implícitamente, que Estados Unidos necesitaba renovar su estrategia de IA. Ello, se explica, se debe a que el auge de la IA es demasiado importante, demasiado generalizado y omnipresente como para ser abordado de otra forma que no sea la atención del más alto nivel. La forma en que se implemente esta Orden dará forma a elementos fundamentales de la IA: la apertura del ecosistema, el grado de concentración de poder y si el sector público podrá estar a la altura de este desafío. Por tanto, esa atención al más alto nivel debe recaer ahora en una cuidadosa implementación, experiencia y recursos dedicados a la misma, por medio de funcionarios capacitados, personal con experiencia en IA, incentivos para dar prioridad a la adopción de la IA, mecanismos de apoyo y seguimiento de la aplicación, orientaciones específicas y liderazgo.
Entrando en la valoración concreta de algunos de los aspectos más relevantes de la Orden Ejecutiva, el informe destaca los siguientes.
Modelos fundacionales
Content Provenance. Third, Generative AI has ushered in a host of concerns around the provenance of content (aka whether it is human-generated or machine-generated), building on the rise of deep fakes and synthetic media in the past decade. The EO tasks Commerce to produce a report surveying the space of techniques for content provenance, watermarking, and other detection approaches. Such research is vital, given existing legislative proposals may be premature in mandating watermarking. Namely, watermarking methods are quite nascent, especially for language models, lacking the required technical and institutional feasibility. However, we believe action will be needed, with recent announcements across the pond, especially with the growing concerns of AI-generated CSAM that are highlighted in the EO. Otherwise, we risk regulating with standards that are technically infeasible or simply do not exist..
La OE se basa en una reciente oleada de iniciativas de la Casa Blanca sobre modelos fundacionales, que son modelos de IA muy grandes y de uso general que impulsan una amplia gama de aplicaciones derivadas. Estas iniciativas incluyen una iniciativa de red-teaming en agosto y compromisos voluntarios para empresas tecnológicas en julio y septiembre. En concreto, la OE define los "modelos básicos de doble uso" como modelos de IA "entrenados con grandes volúmenes de datos; que generalmente utilizan la autosupervisión; contienen al menos decenas de miles de millones de parámetros; son aplicables en una amplia gama de contextos y muestran, o podrían modificarse fácilmente para mostrar, altos niveles de rendimiento en tareas que suponen un grave riesgo para la seguridad general, la seguridad económica nacional, la salud pública nacional, o cualquier combinación de estas cuestiones".
Al respecto, el informe destaca cuatro elementos importantes a tener en cuenta sobre el tratamiento que la OE da a los modelos de fundación.
- Umbrales. En primer lugar, la Orden del presidente Biden obliga a las empresas a comunicar los resultados de las evaluaciones red-teaming para los modelos fundacionales que superen un determinado umbral de cómputo. La orden también advierte implícitamente contra la divulgación de las variables de los modelos (es decir, pleno acceso externo al modelo) por encima del umbral dado, exigiendo a quienes tengan previsto entrenar tales modelos que informen de las "protecciones físicas y de ciberseguridad" para el proceso de entrenamiento y las variables del modelo, junto con información sobre quién conservará la propiedad y posesión de las variables. Concretamente, los umbrales de cumplimiento por defecto son para modelos fundamentales de doble uso que se entrenen, o bien utilizando al menos 10 elevado a 26 operaciones de coma flotante (una medida de ciclos de cálculo), o bien utilizando principalmente datos de secuencias biológicas y al menos 10 elevado a 23 operaciones de coma flotante.
- Supervisión informática. En segundo lugar, la Orden Ejecutiva exige a los proveedores de infraestructuras como servicio (por ejemplo, proveedores de servicios en la nube como Amazon, Google y Microsoft) que vigilen y notifiquen la participación de "personas extranjeras" y cualquier otra información sobre "cualquier ejecución de entrenamiento de un modelo de IA que cumpla los criterios [de umbral]" que pueda permitir cualquier actividad cibernética maliciosa. Los autores del análiss destacan a este respecto que, si bien por un lado, el seguimiento del uso de la computación es más factible que el seguimiento de todos los modelos posibles, ya que la computación en nube sigue siendo fundamental para la formación de modelos fundamentales, por otro lado, esta disposición plantea importantes cuestiones en torno al potencial de abuso.
- Procedencia de los contenidos. En tercer lugar, la IA generativa ha dado lugar a una serie de preocupaciones en torno a la procedencia de los contenidos (es decir, si son generados por humanos o por máquinas), a partir del aumento de las noticias falsas (deep fakes) y los medios sintéticos a lo largo de la última década. Por ello, la Orden encarga al Departamento de Comercio de los EEUU que elabore un informe en el que se analicen las técnicas de procedencia de los contenidos, marcas de agua y otros métodos de detección. Se considera que esta investigación es vital, ya que las propuestas legislativas existentes pueden ser prematuras a la hora de imponer la marca de agua. En concreto, los métodos de marca de agua son bastante incipientes, especialmente en el caso de los modelos lingüísticos, y carecen de la viabilidad técnica e institucional necesaria. Sin embargo, se considera que será necesario actuar con urgencia pues, de lo contrario, se corre el riesgo de regular con normas que son técnicamente inviables o simplemente no existan.
- Modelos fundacionales abiertos. Aunque todavía no existe una definición consensuada de los modelos fundamentales abiertos, una definición binaria como la propuesta por la Orden minimiza el gradiente más complejo de las publicaciones de modelos fundamentales (sobre todo si no se tiene en cuenta la publicación de los datos de entrenamiento). De hecho, como muestra un artículo reciente , las supuestas salvaguardas de los modelos más cerrados pueden eliminarse con bastante facilidad, lo que ilustra que el binario puede no estar bien adaptado al riesgo. Comprender las decisiones de publicación, y en concreto los beneficios y riesgos de la publicación de modelos abiertos, será muy valioso (como algunos de nosotros hemos señalado antes a la NTIA), sobre todo teniendo en cuenta los importantes beneficios de una mayor transparencia y poder distribuido con enfoques abiertos. La repercusión de la Orden Ejecutiva en el ecosistema de modelos fundamentales abiertos sólo quedará clara tras la consulta pública obligatoria y el informe al Presidente..
Atraer talento a través de la inmigración
La orden también significa un gran impulso para atraer a Estados Unidos el talento técnico que tanto se necesita, identificando vías para atraer, reclutar y retener a los talentos extranjeros en IA. La orden ordena al Secretario de Estado y al Secretario de Seguridad Nacional que aumenten las oportunidades de visado para "expertos en IA u otras tecnologías críticas y emergentes".
Este enfoque en la inmigración es acertado: atraer talento de IA es esencial para que Estados Unidos mantenga su liderazgo tecnológico. En 2021, casi el 40% de los doctorandos estadounidenses en ciencias e ingeniería eran titulares de visados temporales. Sin embargo, como se reconoció en el anuncio de la OE, y como han reconocido múltiples grupos de trabajo, el Congreso aún tiene mucho por hacer.
Liderazgo y talento gubernamental
La Orden Ejecutiva da pasos importantes para estructurar tanto la Casa Blanca como las agencias para el liderazgo de la IA.
En primer lugar, la Orden exige la creación del Consejo de IA de la Casa Blanca, presidido por el Jefe de Gabinete Adjunto para Política e integrado por funcionarios de nivel ministerial; el nombramiento de un Director de IA en los organismos; consejos internos de gobernanza de IA en un número más reducido de organismos (los denominados organismos de la Ley de Directores Financieros (CFO)) y, finalmente, un consejo interinstitucional, integrado inicialmente por los Directores de IA, para la coordinación entre organismos.
Estas estructuras de liderazgo son necesarias desde hace mucho tiempo. Hasta la fecha, las actividades de los organismos federales en materia de IA han estado fragmentadas y descentralizadas en distintas oficinas y departamentos, con la notable excepción de los organismos que han publicado planes estratégicos integrales de IA.
Aplicación
La OE es a la vez amplia y precisa. Es más amplia que las anteriores órdenes ejecutivas presidenciales sobre la IA (Orden 13859, Orden 13960), e impone unos 150 requisitos a los organismos, 50 de ellos específicos, para que elaboren orientaciones, realicen estudios, formulen recomendaciones, apliquen políticas y, en su caso, elaboren normas. Se trata de un enfoque integral de la IA.
Hay cuatro elementos destacables en la amplitud y precisión de la OE. En primer lugar, la atención prestada a la aplicación es un aspecto positivo, dados los antecedentes de aplicación de las anteriores órdenes ejecutivas sobre IA. En segundo lugar, esta Orden no deroga las anteriores ni reedita el Plan de la Administración para una Carta de Derechos de la IA, como querían algunos defensores. En tercer lugar, aunque los plazos son elocuentes, también lo es su ausencia. Aparecen muchos plazos, por ejemplo, en la sección 4, que aborda los riesgos para la seguridad nacional de los modelos de fundación, con plazos para aproximadamente el 91% de los requisitos de la sección 4. Por último, aunque esta Orden es digna de aplauso por su especificidad, aún está por ver si los organismos son capaces de cumplir los requisitos a más largo plazo que aún no estaban en marcha. En palabras de la ex directora del NAIIO Lynne Parker, la OE es "paradójica" al exigir una actuación rápida y reconocer al mismo tiempo la escasez de personas con conocimientos suficientes para llevarla a cabo.