parke1_IG_Royal via Getty Images_nuclear IG_Royal via Getty Images

Prevenir el Armagedón nuclear de la IA

GENEVA – Ya no es ciencia ficción: la carrera por aplicar la inteligencia artificial a los sistemas de armas nucleares está en marcha, un avance que podría hacer más probable una guerra nuclear. Ahora que los gobiernos de todo el mundo actúan para garantizar el desarrollo y la aplicación seguros de la IA, existe una oportunidad de mitigar este peligro. Pero si los líderes mundiales quieren aprovecharla, primero deben reconocer cuán grave es la amenaza.

En las últimas semanas, el G7 acordó el Código Internacional de Conducta del Proceso de Hiroshima para organizaciones que desarrollan sistemas avanzados de IA, con el fin de “promover una IA segura y confiable en todo el mundo”, y el presidente de Estados Unidos, Joe Biden, emitió una orden ejecutiva que establece nuevos estándares para la “seguridad y protección” de la IA. El Reino Unido también fue anfitrión de la primera Cumbre mundial sobre seguridad de la IA, con el objetivo de garantizar que la tecnología se desarrolle de manera “segura y responsable”.

Pero ninguna de estas iniciativas aborda adecuadamente los riesgos que plantea la aplicación de la IA a las armas nucleares. Tanto el código de conducta del G7 como la orden ejecutiva de Biden se refieren sólo de pasada a la necesidad de proteger a las poblaciones de las amenazas químicas, biológicas y nucleares generadas por la IA. Y el Primer Ministro del Reino Unido, Rishi Sunak, no mencionó en absoluto la grave amenaza que plantean las aplicaciones de IA relacionadas con armas nucleares, incluso cuando declaró que en la Cumbre de Seguridad de la IA se había llegado a un entendimiento compartido de los riesgos que plantea la IA.

https://prosyn.org/2VbequHes