Carlos B Fernández. Los días 21 y 22 de mayo tuvo lugar en Seúl la segunda cumbre mundial sobre inteligencia artificial (AI Seoul Summit), continuación de la primera, celebrada en el Reino Unido en noviembre de 2023.
Estos eventos se orientan ofrecer a gobiernos, empresas de IA, la academia y la sociedad civil, un foro global de debate sobre esta tecnología. En total 27 países, entre los que se incluyen Alemania, Australia, Canadá, Chile, España, Filipinas, Francia, India, Indonesia, Israel, Italia, Japón, Kenia, México, Nigeria, Nueva Zelanda, Países Bajos, República de Corea, Reino de Arabia Saudita, Ruanda, Singapur, Suiza, Turquía, Ucrania, Emiratos Árabes Unidos, Reino Unido, Estados Unidos de América y la Unión Europea.
La edición de este año, en la que el Reino Unido ha ejercido como país coanfitrión junto con Corea del Sur, ha estado centrada en la seguridad de la IA, abordando las capacidades potenciales de los modelos de IA más avanzados a la luz de la Declaración de Bletchley (emitida al finalizar la anterior cumbre), en busca de unos acuerdos más amplios que incluyan compromisos de los desarrolladores sobre la seguridad de la IA, la importancia de la innovación y de la inclusividad, para propiciar una distribución equitativa de las oportunidades y beneficios que ofrece la IA.
Según la ministra de Tecnología del Reino Unido, Michelle Donelan, los acuerdos alcanzados a lo largo de estos dos días, marcan el comienzo de la Fase Dos de nuestra agenda de Seguridad de la IA, por la que los países firmantes se comprometen a adoptar medidas concretas para hacerse más resiliente a los riesgos de la IA y a profundizar su comprensión de la ciencia que sustentará una estrategia compartida para el desarrollo de una IA segura. Para los países, se trata de colaborar para establecer umbrales a partir de los cuales se deba considerar que los riesgos que plantea la IA se vuelvan graves y, para las empresas, de establecer umbrales de riesgo más allá de los cuales no lanzarán sus modelos.
Informe preliminar sobre seguridad de la IA
Los principales debates celebrados a lo largo de los dos días que duró la cumbre se basaron en un informe científico internacional sobre la seguridad de la IA avanzada.
Este documento fue encargado por el gobierno del Reino Unido a un grupo de trabajo presidido por Yoshua Bengio, un prestigioso académico de IA ganador del Premio Turing y miembro del Consejo Asesor Científico de la ONU. El trabajo fue supervisado por un Panel Asesor de Expertos internacional compuesto por 30 países, incluido el Reino Unido, y nominados de naciones que fueron invitadas a la Cumbre de Seguridad de la IA en Bletchley Park en 2023, así como representantes de la Unión Europea y las Naciones Unidas.
El objetivo del informe fue impulsar una comprensión compartida, actualizada y basada en la ciencia de la seguridad de los sistemas avanzados de IA, y desarrollar esa comprensión a lo largo del tiempo. Para ello, el informe reúne a los países líderes en IA y la mejor experiencia mundial en IA para analizar las mejores investigaciones científicas existentes sobre las capacidades y los riesgos de la IA.
El informe se centra en un resumen de la evidencia sobre la IA de uso general, que ha avanzado rápidamente en los últimos años y sintetiza las evidencias sobre las capacidades y los riesgos de la IA de propósito general y evalúa los métodos técnicos para evaluarlos y mitigarlos.
El informe provisional destaca varias conclusiones clave, entre ellas:
• La IA de uso general se puede utilizar para promover el interés público, lo que conduce a un mayor bienestar, prosperidad y descubrimientos científicos.
• Según muchas métricas, las capacidades de la IA de propósito general están avanzando rápidamente. Los investigadores debaten si ha habido avances significativos en desafíos fundamentales como el razonamiento causal.
• Los expertos no están de acuerdo sobre el ritmo esperado del progreso futuro de las capacidades de IA de propósito general , y respaldan de diversas formas la posibilidad de un progreso lento, rápido o extremadamente rápido.
• Existe una comprensión limitada de las capacidades y el funcionamiento interno de los sistemas de IA de propósito general . Mejorar nuestra comprensión debería ser una prioridad.
• Como todas las tecnologías potentes, la IA de uso general actual y futura puede utilizarse para causar daño. Por ejemplo, los actores malintencionados pueden utilizar la IA para desinformar e influir en operaciones, fraudes y estafas a gran escala.
• El mal funcionamiento de la IA de propósito general también puede causar daños, por ejemplo, a través de decisiones sesgadas con respecto a características protegidas como raza, género, cultura, edad y discapacidad.
• Los avances futuros en la IA de uso general podrían plantear riesgos sistémicos, incluida la perturbación del mercado laboral y las desigualdades de poder económico. Los expertos tienen diferentes puntos de vista sobre el riesgo de que la humanidad pierda el control sobre la IA de una manera que podría tener resultados catastróficos.
• Varios métodos técnicos (incluidos la evaluación comparativa, el equipo rojo y la auditoría de datos de capacitación) pueden ayudar a mitigar los riesgos, aunque todos los métodos actuales tienen limitaciones y se requieren mejoras.
• El futuro de la IA es incierto y parece posible una amplia gama de escenarios. Las decisiones de las sociedades y los gobiernos tendrán un impacto significativo en su futuro.
El informe subraya la necesidad de continuar los esfuerzos de colaboración internacional para investigar y compartir conocimientos sobre estas tecnologías en rápida evolución. El enfoque adoptado incluyó deliberadamente diferentes puntos de vista y perspectivas, y se destacan áreas de incertidumbre, consenso o disenso, promoviendo la transparencia.
Se da la circunstancia de que el director de este informe, Yoshua Bengio, ha sido impulsor también del documento suscrito por un grupo de expertos en IA y difundido casi al mismo tiempo que se celebraba a cumbre de Seúl, por la revista Science, en el que se propone a los países una serie de medidas urgentes a adoptar ante el rápido avance de la IA.
Declaraciones finales de la cumbre
La cumbre ha concluido con la presentación de varios documentos, suscritos por todos los participantes.
Por una parte, la denominada Declaración de Seúl para una IA segura, innovadora e inclusiva (Seoul Declaration for safe, innovative and inclusive AI); por otra, una Declaración Ministerial para promover la seguridad, la innovación y la inclusión de la IA (Seoul Ministerial Statement for advancing AI safety, innovation and inclusivity) y, finalmente, una Declaración de intenciones para la cooperación internacional en ciencia de la seguridad de la IA (Seoul Statement of Intent toward International Cooperation on AI Safety Science).
En paralelo, las grandes tecnológicas mundiales (Amazon, Anthropic, Cohere, Google, G42, IBM, Inflection AI, Meta, Microsoft, Mistral AI, Naver, OpenAI, Samsung, Technology Innovation Institute, xAI y Zhipu.ai) han suscrito los denominados Compromisos de seguridad para la IA más avanzada o de frontera (Frontier AI Safety Commitments).
- La Declaración de Seúl para una IA segura, innovadora e inclusiva
Este documento reafirma la intención común de las partes de fomentar la cooperación y el diálogo internacionales sobre la IA frente a sus avances sin precedentes y su impacto en las economías y sociedades.
Se reconoce, en línea con lo establecido en la Declaración de Bletchley que la seguridad, la innovación y la inclusión de la IA son objetivos interrelacionados, por lo que es importante incluir estas prioridades en los debates internacionales sobre la gobernanza de la IA, de cara al diseño, desarrollo, implementación y uso de la IA .
Se ratifica el apoyo a la puesta en funcionamiento del Código Internacional de Conducta propuesto por el Proceso de Hiroshima para organizaciones que desarrollan sistemas avanzados de IA.
Se plantea como objetivo fortalecer la cooperación internacional en la gobernanza de la IA a través del compromiso con otras iniciativas internacionales en las Naciones Unidas y sus órganos, el G7, el G20, la Organización para la Cooperación y el Desarrollo Económicos (OCDE), el Consejo de Europa y la Asociación Global sobre IA (Global Partnership on AI, GPAI).
En este sentido, los firmantes dan la bienvenida a los principios de IA de la OCDE recientemente actualizados y a la reciente adopción por consenso de la resolución de la Asamblea General de las Naciones Unidas “Aprovechar las oportunidades de sistemas de inteligencia artificial seguros y confiables para el desarrollo sostenible”, que solidificó el entendimiento global sobre la necesidad de salvaguardias para los sistemas de IA y el imperativo de desarrollar, implementar y utilizar la IA para el bien común. Igualmente, se acogen con agrado los debates sobre el Pacto Digital Mundial antes de la Cumbre del Futuro en septiembre de 2024 y se espera el informe final del Órgano Asesor de Alto Nivel sobre IA (HLAB ) del Secretario General de la ONU.
También se reconoce la importancia de la interoperabilidad entre los marcos de gobernanza de la IA en consonancia con un enfoque basado en el riesgo para maximizar los beneficios y abordar la amplia gama de riesgos de la IA, garantizar un diseño, desarrollo, implementación y ejecución seguros y confiables de la IA. En este sentido, se reconoce la responsabilidad particular de las organizaciones que desarrollan e implementan IA de frontera y, en este sentido, se toma nota de los Compromisos de seguridad para la IA de frontera.
Se hace un llamamiento para una mayor cooperación internacional para promover la seguridad, la innovación y la inclusión de la IA para aprovechar la IA centrada en el ser humano, para abordar los mayores desafíos del mundo, proteger y promover los valores democráticos, el estado de derecho y los derechos humanos, las libertades fundamentales y la privacidad, para cerrar la IA y las brechas digitales entre y dentro de los países, contribuyendo así al avance del bienestar humano, y apoyar aplicaciones prácticas de la IA, incluido el avance de los Objetivos de Desarrollo Sostenible de las Naciones Unidas.
Se aboga por unos marcos de políticas y gobernanza, incluidos enfoques basados en riesgos, que fomenten ecosistemas de IA seguros, innovadores e inclusivos. Estos marcos deben facilitar un círculo virtuoso entre la creatividad humana y el desarrollo y uso de la IA, promover la diversidad sociocultural, lingüística y de género, y promover el desarrollo ambientalmente sostenible y el uso de tecnología e infraestructura durante todo el ciclo de vida de la IA.
- Declaración de intenciones para la cooperación internacional en ciencia de la seguridad de la IA
Este documento reafirma la importancia que los países firmantes atribuyen a la coordinación y colaboración internacional, basada en la apertura, la transparencia y la reciprocidad, para avanzar en la ciencia de la seguridad de la IA, como un elemento clave para promover la innovación responsable en IA.
Igualmente se reconoce la necesidad de un conjunto de evidencias confiable, interdisciplinario y reproducible para informar los esfuerzos políticos relacionados con la seguridad de la IA. Y se afirma la intención de las partes de aprovechar y promover entendimientos científicos comunes a través de evaluaciones como el Informe Internacional sobre Seguridad de la IA , para guiar y alinear nuestras políticas respectivas, cuando corresponda, y para permitir una innovación de IA segura y confiable, en línea con nuestros marcos de gobernanza, a la vez que se expresa la intención compartida de tomar medidas para fomentar una comprensión científica internacional común sobre aspectos de la seguridad de la IA, “incluso esforzándonos por promover la complementariedad y la interoperabilidad en nuestras metodologías técnicas y enfoques generales”.
- Compromisos de seguridad para la IA más avanzada o de frontera
Este documento define la IA de frontera (Frontier AI), como aquellos modelos o sistemas de IA de propósito general altamente capaces, que pueden realizar una amplia variedad de tareas e igualar o superar las capacidades presentes en los modelos más avanzados.
Por medio de estos compromisos, las entidades firmantes se comprometen en promover una IA segura y confiable, a desarrollar y desplegar sus modelos y sistemas de IA de vanguardia de manera responsable, de acuerdo con unos compromisos voluntarios, y a demostrar cómo lo han logrado mediante la publicación de un marco de seguridad.
Dichas organizaciones también afirman su compromiso de aplicar las mejores prácticas actuales relacionadas con la seguridad de la IA de frontera, entre ellas realizar «red-teaming» interno y externo de los modelos y sistemas de IA de frontera para detectar amenazas graves y novedosas; a trabajar para compartir la información; a invertir en salvaguardas de ciberseguridad y amenazas internas para proteger los pesos de los modelos patentados y no liberados; a incentivar el descubrimiento y la notificación de problemas y vulnerabilidades por parte de terceros; a desarrollar y desplegar mecanismos que permitan a los usuarios comprender si el contenido sonoro o visual está generado por IA; a informar públicamente sobre las capacidades, limitaciones y ámbitos de uso apropiado e inapropiado de modelos o sistemas; a priorizar la investigación sobre los riesgos sociales que plantean los modelos y sistemas de IA de vanguardia; y a desarrollar y desplegar modelos y sistemas de IA de vanguardia para ayudar a abordar los mayores retos del mundo.
La siguiente reunión de la AI Action Summit tendrá lugar en Francia en fecha aun no precisada.