Biden firma orden ejecutiva para un uso seguro de la IA
Tiempo de lectura: 3 minutos El presidente de Estados Unidos, Joe Biden, firmó una orden ejecutiva para permitir mayores controles de seguridad sobre la inteligencia artificial y mitigar los riesgos de esta tecnología. Por su parte, los países del G7 acordaron en Tokio un código de conducta para quienes desarrollen sistemas de IA.
Antes de la firma de la ley, Biden declaró en la Casa Blanca que la IA «es la tecnología más trascendental» de la historia reciente, con aplicaciones a todos los campos de la ciencia, la economía y la sociedad pero que también presenta muchos riesgos por lo que tiene que ser controlada.
«Necesitamos controlar esta tecnología y no hay forma de evitarlo«, explicó Biden que estaba acompañado por la vicepresidenta del país, Kamala Harris, quien viaja al Reino Unido para participar en una cumbre mundial sobre inteligencia artificial.
Biden calificó la orden ejecutiva como la «acción más significativa» adoptada por cualquier gobierno del mundo hasta el momento lo que permitirá a Estados Unidos ser el líder y modelo que otros países seguirán para controlar el desarrollo de IA.
«Ya que los desafíos y las oportunidades de la IA son globales, vamos a mantener el progreso del liderazgo estadounidense globalmente», declaró el presidente estadounidense quien también dijo que los gobernantes de otros países están interesados en que EE.UU. encabece el desarrollo de las pautas para controlar esta tecnología.
Según la información facilitada por la Casa Blanca, se trata del «conjunto de acciones más fuertes puesto en marcha por un gobierno en todo el mundo».
Agresiva estrategia
Así lo apuntó el subjefe de gabinete, Bruce Reed, quien señaló que este decreto con rango de ley es el «siguiente paso» de una «agresiva» estrategia para actuar en todos los frentes «aprovechando los beneficios de la IA y mitigando sus riesgos«.
La norma llega después de que en julio, 15 de las principales empresas tecnológicas del país -entre ellas Amazon, Google, Meta y Microsoft- aceptasen adoptar medidas de seguridad sobre el desarrollo de IA propuestas por la Administración Biden.
La orden ejecutiva, que Biden presentó en la Casa Blanca, incorpora cláusulas para proteger la privacidad, mejorar los derechos civiles, proteger los consumidores, apoyar a los trabajadores y promover la innovación, entre otras.
Entre las medidas que incluye está la de exigir que los desarrolladores de inteligencia artificial más importantes compartan con el gobierno estadounidense los resultados de sus pruebas de seguridad y otra información que se considere «crucial».
De acuerdo con la Ley de Producción de Defensa, las empresas que desarrollen cualquier sistema que pueda suponer un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud públicas deberán notificar a la administración cuando vayan a poner a prueba ese modelo.
Estas medidas garantizarán que los sistemas de inteligencia artificial sean «seguros y de confianza antes de que las empresas los hagan públicos«.
El Instituto Nacional de Estándares y Tecnología será el que establezca los «rigurosos» estándares para las pruebas de seguridad. Y el Departamento de Interior los aplicará en sectores «fundamentales».
Además, los Departamentos de Energía e Interior se encargarán de vigilar las posibles amenazas de sistemas de IA sobre infraestructuras críticas y los riesgos que pueda suponer en los campos químico, biológico, radiológico, nuclear o de ciberseguridad.
La norma incluye medidas para tratar de evitar tanto la creación de «materiales biológicos peligrosos» como el fraude y el engaño mediante el uso de la IA, en este caso para etiquetar con claridad el contenido generado por la inteligencia artificial.
La orden ejecutiva también establecerá un programa para que la IA descubra y arregle vulnerabilidades del software. Finalmente se desarrollará un memorándum de seguridad nacional para el uso ético de la IA por parte de las fuerzas armadas y los servicios de inteligencia.
La orden ejecutiva también incluye medidas para proteger la privacidad, mejorar los derechos civiles, proteger los consumidores, apoyar a los trabajadores y promover la innovación, entre otras.
Acuerdo del G7
En tanto, los países del G7 acordaron este lunes, un código de conducta para las empresas e instituciones que desarrollen sistemas de inteligencia artificial (IA), dirigido a mitigar riesgos derivados de esta tecnología como la desinformación y la vulneración de la privacidad o la propiedad intelectual.
Los líderes del Grupo de los Siete (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido) respaldaron el conjunto de orientaciones para el sector de la inteligencia artificial bautizado como el «Proceso de IA de Hiroshima», según informó la presidencia nipona de turno.
Esta hoja de ruta aspira a promover el desarrollo de sistemas de IA «seguros y fiables» a nivel internacional y a «gestionar sus riesgos», según la declaración conjunta, que también llama a todos los actores del sector de la IA a comprometerse a su cumplimiento.
El G7 destaca el «potencial innovador y transformador» de los sistemas avanzados de IA, y en particular, de modelos generativos como el bot de conversación ChatGPT, y al mismo tiempo reconoce la necesidad de «proteger a los individuos, la sociedad y los principios compartidos», además de «mantener a la humanidad en el centro».
Para ello, el Grupo de los Siete puso en marcha el pasado mayo en la cumbre de Hiroshima (oeste) una iniciativa que ha derivado en la elaboración de once principios para empresas y organizaciones involucradas en el desarrollo de sistemas de IA.
Entre las medidas recomendadas figura contar con la supervisión de observadores independientes en todas las fases de desarrollo y salida al mercado de las IA, y de que sus creadores detecten posibles riesgos de uso indebido y corrijan esas vulnerabilidades.
Fuente: EFE