«Allez, salut, hein!» | Alexey NIKOLSKY / SPUTNIK / AFP
«Allez, salut, hein!» | Alexey NIKOLSKY / SPUTNIK / AFP

Il faut de toute urgence bannir les armes nucléaires autonomes

Le Docteur Folamour n'est pas mort, il invente encore.

Reprise par Popular Mechanics, c'est une alerte des plus angoissantes qu'émettent les experts du Bulletin of the Atomic Scientists, une ONG basée à Chicago déjà mondialement connue pour sa «Doomsday Clock», un compte à rebours vers l'apocalypse actuellement à 100 secondes avant minuit.

Dans une publication, le Bulletin of the Atomic Scientists appelle la communauté internationale à agir au plus vite pour bannir les armes nucléaires autonomes. «Des armes nucléaires autonomes?», vous étranglez-vous peut-être, surpris que l'homme puisse encore être suffisamment inventif pour avoir d'aussi stupides idées.

Des armes nucléaires autonomes, nous répondons-vous, à l'unisson avec le groupe d'experts américains. Car aussi surprenant –et effrayant– que cela puisse paraître, de telles armes existent, ou sont sur le point d'exister.

Comme l'explique Popular Mechanics, certaines armes nucléaires «traditionnelles», dont le lancement ou le déclenchement sont soumis à un strict processus de décision humaine, sont déjà dotées d'un certain degré d'autonomie.

C'est souvent, dans ces cas particuliers, une manière d'éviter toute interférence ou mésusage de la chose atomique. Les rutilants, petits et nouveaux missiles tactiques américains B61-12, ne peuvent ainsi détonner que si une série de conditions, vérifiées par un système automatique, sont remplies –la connexion initiale avec le bon avion-lanceur, l'atteinte d'une certaine altitude et une trajectoire vers le sol, histoire d'éviter qu'un terroriste fou n'en fasse exploser une dans le Lower Manhattan.

Mais il existe, dans le monde, d'autres armes prétendues ou déjà en service prévues pour fonctionner en complète autonomie. Récemment, la Chine testait semble-t-il avec succès un missile hypersonique capable de rester indéfiniment en orbite avant, éventuellement, de fondre vers sa cible sur Terre.

Apocalypse automatique

Dans le cadre d'une politique de dissuasion, on peut aisément imaginer une telle arme –tout comme le pas beaucoup moins angoissant Burevestnik «Skyfall» russe, cousin des airs à propulsion également nucléaire– dotée d'une tête nucléaire et d'un système informatique (intelligence dite artificielle) capable de lui faire prendre la décision finale seule.

Idéal pour une riposte garantie contre une attaque initiale –idéal aussi pour un cafouillage mal maîtrisé et un désastre comme le monde n'en a encore jamais connu.

Popular Mechanics, comme les experts auteurs et autrices de l'alerte, mentionnent également le Poséidon russe, probablement l'une des armes les plus terrifiantes jamais conçues, ou du moins imaginées par l'humain.

Qu'elle relève des fantasmes occidentaux ou de réelles avancées stratégiques, techniques et militaires russes, la Poseidon 2M39 ou Status-6 Poseidon, surnommée Kanyon par la CIA, est une «torpille nucléaire à tsunamis» furtive et à propulsion nucléaire.

Son objectif? Là encore, la plus effrayante des dissuasions: rôder en toute autonomie à distance des côtes d'un ennemi déclaré, et aller faire détonner sa charge nucléaire sur une grande ville en cas d'attaque.

Mais qui appuierait sur la détente? En toute logique un humain, ou une chaîne d'humains soumis à une procédure stricte et à de multiples vérifications, imperméable a priori à toute erreur.

Mais le progrès étant ce qu'il est, une IA pourrait également être chargée de «calculer» la décision, la cible, de prévenir une nouvelle attaque, en un mot de décider seule et sans supervision dans l'instant. En retirant l'humain de la décision, une telle IA rendrait la punition plus automatique encore, donc la dissuasion plus dissuasive: efficace, mais risqué.

Confier une telle décision à un système informatique pose toutes les questions que cela peut poser, et plante toutes les angoisses que cela peut planter. L'idée n'est pourtant pas totalement de l'ordre du fantasme absolu, elle a déjà été implémentée et utilisée dans des armes et assassinats conventionnels, et l'idée pourrait faire florès dans certains états-majors de l'adapter aux tueries de très grande échelle.

«Alors que les États et le public débat des circonstances dans lesquelles des machines pourraient être autorisées à tuer, une ligne claire et nette devrait être dessinée autour des armes nucléaires», explique à Popular Mechanics Zachary Kallenborn, spécialiste des armes de destruction massive, en écho aux inquiétudes du Bulletin of the Atomic Scientists.

«Un humain devrait toujours prendre la décision d'une destruction d'ampleur catastrophique, poursuit-il. Au moins, quand nous serons tous morts, nous connaîtrons le coupable.»

En ce moment

🔫 De l'importance des gros canons 💣 Le coup d'État contre Poutine 🐦 Elon Musk qui plombe Twitter: l'hebdo de korii.

Et Cætera

🔫 De l'importance des gros canons 💣 Le coup d'État contre Poutine 🐦 Elon Musk qui plombe Twitter: l'hebdo de korii.

Dix (courts) articles pour voir le monde d'un autre œil et chasser l'ennui de votre dimanche.

🔥 Et si l'Ukraine envahissait la Russie? ⚡ Les douteux lasers russes anti-drones 🏃 La course à l'exaflop, hier sur korii.

Et Cætera

🔥 Et si l'Ukraine envahissait la Russie? ⚡ Les douteux lasers russes anti-drones 🏃 La course à l'exaflop, hier sur korii.

Quatre articles pour comprendre le monde autrement.

Supercalculateurs: les États-Unis courent derrière une Chine triomphante

Tech

Supercalculateurs: les États-Unis courent derrière une Chine triomphante

Géopolitique et concours de bits.