Cargando. Por favor, espere

Portada

Carlos B Fernández. El pasado día ocho de febrero, la Secretaria de Comercio de los Estados Unidos, Gina Raimondo, anunció la creación del Consorcio del Instituto de Seguridad de IA (AI Safety Institute Consortium, AISIC), un organismo dependiente del Instituto Nacional de Estándares y Tecnología (NIST) que reunirá a creadores y usuarios de IA, académicos, investigadores gubernamentales y de la industria, y organizaciones de la sociedad civil, en apoyo al desarrollo y despliegue de tecnologías de inteligencia artificial (IA) seguras y confiables.

El consorcio estará alojado en el Instituto de Seguridad de IA de EEUU (US AI Safety Institute, USAISI) y contribuirá a las acciones prioritarias descritas en la Orden Ejecutiva del presidente Biden  sobre el desarrollo de la IA en los Estados Unidos, incluido el desarrollo de directrices para la formación de Red Teams, evaluaciones de capacidad, gestión de riesgos, seguridad y protección, y marca de agua para contenido sintético.

El consorcio cuenta con la participación de más de 200 empresas y organizaciones que están en la primera línea de la creación y el uso de los sistemas y hardware de IA más avanzados, las empresas más grandes del país y las startups más innovadoras, los equipos académicos que están construyendo la comprensión fundamental de cómo funciona la IA y representantes de profesiones con un profundo compromiso con el uso de la IA.

El consorcio también incluye gobiernos estatales y locales, así como organizaciones sin fines de lucro, y trabajará con organizaciones de naciones con ideas afines que tienen un papel clave que desempeñar en el desarrollo de herramientas interoperables y efectivas para la seguridad en todo el mundo.

Funciones del consorcio

Aprovechando su larga trayectoria de trabajo con los sectores público y privado y su historial de mediciones confiables y prácticas y soluciones orientadas a estándares, el NIST trabajará con el AISIC para:

- Establecer un espacio de intercambio de conocimientos y datos para las partes interesadas en la IA.

- Participar en la investigación y desarrollo colaborativo e interdisciplinario a través de la ejecución de un Plan de Investigación.

- Priorizar los requisitos y enfoques de investigación que puedan permitir una comprensión más completa y efectiva de los impactos de la IA en la sociedad y la economía de los EE.UU.

- Identificar y recomendar enfoques para facilitar el desarrollo cooperativo y la transferencia de tecnología y datos entre los miembros del Consorcio.

- Identificar mecanismos para agilizar los aportes de las agencias federales sobre temas dentro de su competencia directa.

- Permitir la evaluación de sistemas de prueba y prototipos para informar futuros esfuerzos de medición de IA.

Para crear un enfoque duradero para la investigación y el desarrollo conjuntos continuos, el trabajo del consorcio será abierto y transparente y proporcionará un punto común o hub para que las partes interesadas trabajen juntas en la construcción y maduración de una ciencia de medición para una IA confiable y responsable.

Las contribuciones de los miembros del consorcio apoyarán una de las siguientes áreas:

- Desarrollar nuevas directrices, herramientas, métodos, protocolos y mejores prácticas para facilitar la evolución de los estándares de la industria para desarrollar o implementar la IA de manera segura y confiable.

- Desarrollar directrices y marcos de referencia para identificar y evaluar las capacidades de la IA, centrándose en aquellas que potencialmente podrían causar daño. 

- Desarrollar pautas para la incorporación de prácticas de desarrollo seguro para la IA generativa, incluidas consideraciones especiales para los modelos básicos de doble uso; la evaluación y gestión de la seguridad y confiabilidad de los modelos en relación con el aprendizaje automático que preserva la privacidad y la orientación para garantizar la disponibilidad de entornos de prueba.

- Desarrollar y garantizar la disponibilidad de entornos de prueba.

- Desarrollar orientación, métodos, habilidades y prácticas para lograr un aprendizaje automático exitoso y que preserve la privacidad.

- Desarrollar orientación y herramientas para autenticar contenido digital.

- Desarrollar orientación y criterios para la capacitación de los trabajadores de IA, incluida la identificación y gestión de riesgos, prueba, evaluación, validación y verificación (TEVV) y experiencia en dominios específicos.

- Explorar las complejidades en la intersección de la sociedad y la tecnología, incluida la ciencia de cómo los humanos dan sentido a la IA y se relacionan con ella en diferentes contextos.

- Desarrollar una guía para comprender y gestionar las interdependencias entre los actores de la IA a lo largo del ciclo de vida.

El consorcio se centrará en establecer las bases para una nueva ciencia de medición en la seguridad de la IA.

Scroll