Avec un budget de 716 milliards de dollars en 2019, la Défense américaine est la plus riche du monde. Ces sommes colossales ont inspiré au Pentagone l'idée d’en consacrer une partie au développement d’intelligences artificielles à usage militaire, considérées comme le futur de la guerre.
En 2017, un contrat avait été conclu avec Google pour le développement d’un projet appelé «Maven», pour mettre au point un logiciel capable d’analyser et d'interpréter les images captées par les drones de l’armée. Google a finalement mis fin au projet, devant les protestations d’une partie de ses équipes, qui n’appréciaient pas que leur entreprise s’«implique dans des activités guerrières». Depuis, Google a ajouté un addendum aux principes régulant sa création d’I.A. Dorénavant, elle ne peuvent être utilisées comme «des armes ou toute autre technologie dont le but principal est de blesser quelqu’un ou de faciliter des blessures».
Deux milliards d’investissement
Cela n’a pas entamé la volonté du Pentagone de développer ses propres armes intelligentes, puisqu’il a débloqué deux milliards de dollars sur cinq ans, consacrés à l’investissement dans l’I.A. Mais, selon un mémo obtenu par Wired, l'épisode Google a provoqué une prise de conscience chez certains officiels du Pentagone. Ce document, diffusé à une cinquantaine de membres hauts placés dans les organigrammes de la défense nationale américaine, estime que le gouvernement américain doit mieux communiquer sur le sujet: «Nous ne pourrons pas être compétitifs face à nos adversaires si nous ne gagnons pas “le cœur et l’esprit” de nos alliés clés», est-il ainsi estimé. Comprendre: si Pékin peut simplement ordonner à des scientifiques de travailler sur des I.A. guerrières, Washington doit nécessairement convaincre des experts extérieurs, issus de la société civile.
Et pour cause: l’intelligence artificielle n’est pas une technologie comme une autre. Pour des missiles dernier cri ou des avions high-tech, l’armée américaine peut facilement se tourner vers pléthore de sociétés spécialisées, qui lui fourniront volontiers les armes demandées. Mais pour ce qui est de l’I.A., le cœur des innovations se trouve dans la Silicon Valley –une industrie civile plutôt frileuse à l’idée de s'engager avec l'armée.
Opération séduction
Pour y remédier, les militaires se veulent rassurants. Afin de conquérir «le cœur et l’esprit» dont il est question –les entrepreneurs et les entrepreneuses de la Silicon Valley principalement–, l'armée assure aux inquiètes et aux inquiets qu'ils ont été entendus. Un conseil d’éthique, constitué d’experts en nouvelles technologies, a donc été formé afin d’établir les règles éthiques relatives à l’utilisation militaire des I.A.
#TechReads: "I want to make sure the Department [of Defense] is not just leading in developing AI for military purposes but also in developing ethics to use AI in military purposes,” says @joshuamarcuse.https://t.co/iYjePOgt8T
— CNAS Technology and National Security Program (@CNAStech) 11 janvier 2019
Son directeur, Joshua Marcuse, assure que les critiques sont légitimes, qu’il les prendra toutes sérieusement en compte et qu’il appliquera de véritables restrictions aux I.A. militarisées. Ceci dit, Marcuse admet que son conseil ne changera probablement rien à la politique relative aux armes autonomes déjà en usage dans l’armée américaine.
Depuis 2012, l’armée autorise l’achat d’armes mortelles contrôlées par une I.A. après validation par trois responsables seniors. Mais les règles édictées au Pentagone demeurent floues. Comment définir le «niveau de jugement approprié» des soldats sur les armes qui comportent des I.A.?
Et, une fois toutes les précautions prises, qu'est-ce qui empêcherait l'ordinateur d'appuyer sur la gâchette?