parke1_IG_Royal via Getty Images_nuclear IG_Royal via Getty Images

Prévenir une apocalypse nucléaire liée à l'intelligence artificielle

GENÈVE – Ce n’est désormais plus de la science-fiction : une course a débuté autour de l’application de l’intelligence artificielle aux systèmes d’armements nucléaires – une évolution susceptible d’accentuer la probabilité d’une guerre nucléaire. Les gouvernements à travers le monde agissant toutefois pour que l’IA soit développée et appliquée de manière sûre, une opportunité d’atténuation de ce risque existe. Pour que les dirigeants mondiaux la saisissent, il va néanmoins leur falloir réaliser combien la menace est sérieuse.

Ces dernières semaines, le G7 a convenu du Code de conduite du processus d’Hiroshima pour les organisations développant des systèmes d’IA avancés, afin de « promouvoir une IA sûre, sécurisée et fiable à travers le monde », et le chef d’État américain Joe Biden a pris un décret présidentiel établissant de nouvelles normes autour de la « sécurité » de l’IA. Le Royaume-Uni a également organisé le tout premier Sommet sur la sécurité de l’IA, avec pour objectif de veiller à ce que cette technologie soit développée de manière « sûre et responsable ».

Or, aucune de ces initiatives n’est à la hauteur des risques soulevés par l’application de l’IA aux armes nucléaires. Le Code de conduite du G7 et le décret présidentiel de Biden évoquent seulement brièvement la nécessité de protéger les populations contre les menaces chimiques, biologiques et nucléaires susceptibles de résulter de l’IA. De même, bien qu’il ait expliqué qu’une compréhension commune des risques soulevés par l’IA avait émergé lors du Somment sur la sécurité de l’IA, le Premier ministre Rishi Sunak n’a mentionné nulle part la menace élevée que représentent les applications d’IA relatives aux armes nucléaires.

https://prosyn.org/2VbequHfr