Cargando. Por favor, espere

El creador del ChatGPT solicita a los gobiernos que regulen la Inteligencia Artificial

El creador del ChatGPT solicita a los gobiernos que regulen la Inteligencia Artificial

  • 17-5-2023 | LA LEY
  • En una comparecencia ante el Senado de los Estados Unidos, Sam Altman, CEO de Open AI, ha solicitado a los gobiernos que adopten una regulación que mitigue los crecientes riesgos que plantean los grandes sistemas de Inteligencia Artificial.
Portada

Sam Altman, CEO de Open AI, la empresa creadora de GPT y el ChatGPT, ha planteado la necesidad de una regulación de la inteligencia artificial (IA) que mitigue los riesgos asociados a estas tecnologías.

En un comparecencia ante el Subcomité de Privacidad, Tecnología y Derecho del Comité de Justicia del Senado de los Estados Unidos, Altman ha destacado que es esencial que una tecnología tan potente como la IA se desarrolle teniendo en cuenta los valores democráticos. Para ello es fundamental una intervención reguladora por parte de los gobiernos que mitigue los crecientes riesgos que plantean los grandes modelos de lenguaje (LLM por su abreviatura en inglés), en los que se basa su producto. Una regulación de la IA que equilibre la necesidad de seguridad con la garantía de que las personas puedan acceder a los beneficios de la tecnología.

Y es que, como indicó Altman, si bien creemos que los beneficios que pueden aportar las herramientas que hemos desplegado hasta ahora, superan con creces los riesgos que plantean, garantizar su seguridad es vital para nuestro trabajo, porque "queremos sere claros: si esta tecnología sale mal, puede salir bastante mal", Por ello, "queremos trabajar con el gobierno para evitar que eso ocurra", indicó.

A tal fin, Altman ha planteado diversas formas en que las empresas de IA y los gobiernos pueden colaborar de forma productiva.

En primer lugar, es vital que las empresas de IA --especialmente las que trabajan en los modelos más potentes-- se adhieran a un conjunto adecuado de requisitos de seguridad, incluidas pruebas internas y externas, antes de su lanzamiento, y a la publicación de los resultados de dicha evaluación. Para garantizar esto, el gobierno debería considerar una combinación de requisitos de licencia y registro para el desarrollo y la difusión de modelos de IA por encima de un umbral crucial de capacidades, junto con incentivos para el pleno cumplimiento de estos requisitos.

En segundo lugar, la IA es un campo complejo y en rápida evolución, por ello es esencial que los requisitos de seguridad que deben cumplir las empresas de IA cuenten con un régimen de gobernanza lo suficientemente flexible como para adaptarse a los nuevos avances técnicos. Por ello, el gobierno debería considerar la posibilidad de facilitar procesos en los que participen múltiples partes interesadas, que incorporen las aportaciones de una amplia gama de expertos y organizaciones, que puedan desarrollar y actualizar periódicamente las normas de seguridad adecuadas, los requisitos de evaluación, las prácticas de divulgación y los mecanismos de validación externa para los sistemas de IA sujetos a licencia o registro.

En tercer lugar, esta regulación necesita tener un alcance global, ya que "no estamos solos en el desarrollo de esta tecnología". Por ello Altman destacó que "será importante que los responsables políticos estudien cómo aplicar la normativa sobre licencias a escala mundial y garantizar la cooperación internacional en materia de seguridad de la IA, incluido el examen de posibles mecanismos intergubernamentales de establecimiento de normas y supervisión de su cumplimiento".

En la misma sesión, Gary Marcus, profesor de la Universidad de Nueva York y uno de los más conocidos impulsores de la necesidad de regular los sistemas inteligentes, declaró, bajo juramento, al igual que los otros comparecientes, que "hemos construido máquinas que son como elefantes en una cacharrería: poderosas, temerarias y difíciles de controlar".

Y aunque todos estamos básicamente de acuerdo sobre los valores que nos gustaría que respetaran estos sistemas de IA, como, por ejemplo, que sean transparentes, que protejan nuestra intimidad, que no tengan prejuicios y, sobre todo, que sean seguros, en realidad, los sistemas actuales no se ajustan a estos valores: no son transparentes, no protegen adecuadamente nuestra intimidad y siguen perpetuando los prejuicios. Ni siquiera sus creadores entienden del todo cómo funcionan. Y, sobre todo, no podemos garantizar ni remotamente que sean seguros.

Por ello, añadió, "todos deberíamos estar profundamente preocupados por sistemas que pueden confabular con fluidez, sin preocuparse de la la realidad". Los extranjeros podrán utilizarlos para influir en las elecciones, mientras que, desde dentro, se podrán utilizar para manipular los mercados y nuestros sistemas políticos.

Y ante esta situación, el planteamiento ofrecido por las grandes empresas tecnológicas, explicó Marcus, se reduce a un "confíen en nosotros". Pero ¿por qué habríamos de hacerlo? se pregunta este profesor. "Las sumas de dinero en juego son alucinantes. Y, por ello, esos objetivos queda a la deriva.

En definitiva, señaló, la IA avanza a una velocidad increíble, con mucho potencial, pero también con muchos riesgos, por ello, resulta obvio que necesitamos la participación de los gobiernos y tambie´n que participen las empresas tecnológicas, grandes y pequeñas. "Pero también necesitamos científicos independientes. No sólo para que los científicos tengamos voz, sino para que podamos participar directamente en la resolución de los problemas y la evaluación de las soluciones. Y no sólo después de que se lancen los productos, sino antes", concluyó.

Por su parte, Christina Montgomery,Chief Privacy and Trust Officer de IBM, señaló que "la era de la IA no puede ser otra era de moverse rápido y romper cosas". Pero tampoco necesitamos una pausa de seis meses, aclaró. "Estos sistemas están hoy bajo nuestro control, al igual que las soluciones", añadió, por lo que "lo que necesitamos en este momento crucial es una política clara y razonable, así como unas reglas de juego sólidas, que deben ir acompañadas de unas medidas significativas por parte de la comunidad empresarial".

Según Montgomery, el revuelo en torno a la IA ha creado una confusión comprensible entre algunos sobre dónde es necesaria la intervención regulatoria y cómo debe configurarse esta. Sin embargo, explicó, en el fondo, la IA no es más que una herramienta, y las herramientas pueden servir para diferentes propósitos. Por ejemplo, una llave inglesa puede utilizarse para montar un escritorio o para construir un avión, pero las normas que rigen esos dos productos finales son distintas y no se basan principalmente en la llave inglesa, sino que se basan en el uso.

Por ello, indicó que IBM insta al legislador a adoptar un enfoque de "regulación de precisión" de la inteligencia artificial. Esto significa establecer normas que rijan el despliegue de la IA en casos de uso específicos, no en regular la tecnología en sí. Este enfoque se basa en cuatro reglas, que enunción de la siguiente manera: 1. Diferentes reglas para diferentes riesgos: Un chatbot que puede compartir recomendaciones de restaurantes o redactar un correo electrónico o un sistema que ayuda a tomar decisiones sobre crédito, vivienda o empleo, plantean diferentes riesgos. Por ello, en una regulación de precisión, la regulación más estricta debería aplicarse a los casos de uso con mayor riesgo. 2. Definir claramente los riesgos. Debe establecerse una orientación clara sobre qué usos finales de la IA o qué categorías de actividades que utilicen IA se consideran inherentemente de alto riesgo, para garantizar que los desarrolladores e implantadores de IA tengan una comprensión clara de los requisitos normativos que se aplicarán. 3. Sea transparente, no oculte su IA. Los consumidores deben saber cuándo están interactuando con un sistema de IA y si pueden recurrir a una persona real si así lo desean. Ninguna persona, en ningún lugar, debe ser engañada para interactuar con un sistema de IA. Los desarrolladores de IA también deben estar obligados a revelar información técnica sobre el desarrollo y el rendimiento de un modelo de IA, así como los datos utilizados para entrenarlo, para dar a la sociedad una mejor visibilidad de cómo funcionan estos modelos, y 4. Mostrar el impacto. Para los casos de uso de IA de mayor riesgo, las empresas deberían estar obligadas a llevar a cabo evaluaciones de impacto que muestren cómo funcionan sus sistemas frente a las pruebas de sesgo y otras formas en las que potencialmente podrían impactar al público, y dar fe de que lo han hecho. Además, las pruebas de sesgo y su mitigación deben realizarse de forma sólida y transparente para determinados sistemas de IA de alto riesgo, como los casos de uso policial

Por su parte, los senadores del subcomité ante el que se desarrolló la audiencia, sugirieron varios posibles mecanismos de regulación, entre ellos una agencia independiente para supervisar la IA; unas normas que obliguen a las empresas a revelar el funcionamiento de estos sistemas y sus conjuntos de datos, y normas antimonopolio para evitar la monopolización del mercado de la IA. Además, varios de los intervinientes expresaron su preocupación por equilibrar la regulación con el potencial económico de la IA y la competencia que plantea frente a países como China.

Añadir comentario1Comentarios
Usuario por defecto|22/05/2023 8:41:48
La incertidumbre y miedo sobre la AI es paralelo al desconocimiento de nuestra sociedad sobre cómo el entorno BANI se ha implantado y cómo el llamado entorno BANI se incardina con el proceso de posthumanismo definido por Rosi Braidotti en su libro "conocimiento posthumano"Notificar comentario inapropiado
Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll