International

La guerre du futur est déjà sur les champs de bataille

L’intelligence artificielle est déjà omniprésente sur les théâtres d’opération. Conjuguée à la robotique, elle peut engendrer les fameux robots tueurs. Comment faire en sorte que la responsabilité humaine demeure la règle ?

Qui n’a jamais vu un des films de la célèbre saga Terminator des années 1980, où le système “intelligent” Skynet déclenche l’apocalypse nucléaire ? Bienvenue dans la réalité, car l’humanité y est ou presque. Technologiquement, la première génération de robots tueurs, appelés Sala (Systèmes d’armes létaux autonomes), est testée en secret dans certaines armées… et est même parfois déjà en service. Ainsi, la Corée du Sud “emploie” depuis maintenant trois ans plusieurs robots tueurs (SGR-A1), bardés de capteurs, le long de la zone démilitarisée qui la sépare de la Corée du Nord. Développés par Samsung, ces engins prennent seuls la décision d’enclencher leurs armes pour protéger la frontière sud-coréenne.

Pour autant, sauf rupture technologique majeure, les armes totalement autonomes ne devraient pas voir le jour avant 20 à 30 ans, estime pour sa part le Secrétariat général de la défense et de la sécurité nationale (SGDSN) dans son ouvrage “Chocs futurs“. Les États-Unis, qui consacrent environ 5 milliards de dollars chaque année à des systèmes de drones dans leur budget de la défense, en sont pourtant proches. Actuellement, des drones volant en essaim sont à l’essai avec des perspectives opérationnelles prometteuses. Ainsi, en octobre 2016, trois chasseurs F-18 ont largué à grande vitesse 103 mini-drones, qui ont ensuite évolué en essaim, mettant en oeuvre un processus de décision collective ayant conduit à des adaptations de la formation en vol. En 2025, l’objectif affiché par les militaires russes est d’employer plus de 30% de systèmes d’armes autonomes et semi-autonomes.

Davantage d’autonomie pour les systèmes défensifs

Si la Corée du Sud a officiellement franchi le mur sans états d’âme, les autres nations se font plus discrètes. Mais tous les pays producteurs d’armement (États-Unis, Russie, Chine, France, Grande-Bretagne, Israël…) proposent aujourd’hui des systèmes d’armes, y compris létaux, intégrant des robots ou des systèmes autonomes (suivi de terrain automatique pour avions de combat, systèmes de défense antiaérienne et anti-missile, missiles de croisière ou « rôdeurs », torpilles, systèmes d’autodéfense de plateformes de combat, mines marines).

La ministre des Armées, Florence Parly, a confirmé dans une interview accordée à La Tribune (13 avril) que l’intelligence artificielle est déjà sur les champs de bataille. D’une façon générale, les systèmes défensifs sont dotés d’une plus large autonomie que les systèmes offensifs, pour lesquels l’ouverture du feu reste soumise à l’autorisation d’un opérateur (drone de reconnaissance armé, drone de combat…).

Prise de conscience mondiale

Jusqu’où l’homme ira-t-il en conjuguant robotique et intelligence artificielle ? Les robots tueurs inquiètent de plus en plus dans le monde. À juste titre. Dans un tweet, le milliardaire Elon Musk, propriétaire de SpaceX et de Tesla, a forcé le trait il y quelques mois :

“Selon moi, la concurrence internationale pour la supériorité en matière d’intelligence artificielle sera presque certainement la cause d’une troisième guerre mondiale”.

Sur le plan économique, le marché de la robotique militaire était évalué à 3,2 milliards de dollars par an en 2014, il devrait atteindre 10,2 milliards de dollars par an en 2021, selon une étude de WinterGreen Research.

Les inquiétudes ont provoqué une prise de conscience mondiale. Les Sala respecteront-ils à l’avenir le droit international humanitaire et le droit de la guerre ? Sous l’impulsion de la France, l’ONU organise une rencontre annuelle sur les Sala. Ainsi, pendant une semaine, les représentants de plus de 70 États et de la société civile ont discuté début avril, aux Nations unies, à Genève, de la composante humaine dans le cadre de l’utilisation des robots tueurs, des aspects de l’interaction homme-machine, mais aussi du développement, du déploiement et de l’emploi de technologies émergentes, dans le domaine des Sala. Mais la perspective d’un traité régissant les armes autonomes semble encore lointaine. Pourquoi un État fait-il de la recherche dans un domaine comme la défense ? Il le fait à des fins de souveraineté : pour s’assurer une supériorité technologique, donc opérationnelle, et être capable de répondre à une évolution des menaces.

L’homme toujours dans la boucle

En France, travaille-t-on sur des robots tueurs ? Officiellement, non. “J’y suis catégoriquement opposé, a d’ailleurs récemment expliqué Emmanuel Macron lors de la présentation de son plan sur l’intelligence artificielle. Car je pense qu’il faut toujours une responsabilité et une reconnaissance de responsabilité”. Et Florence Parly de préciser :

“Ce n’est pas l’intelligence artificielle qui va appuyer sur le bouton pour enclencher un tir. Il est vraiment essentiel de le rappeler. Nous ne sommes pas en train de fabriquer des robots tueurs, mais nous sommes en train d’essayer de tirer le meilleur parti de données qui seront de plus en plus nombreuses et dont nous savons que l’intelligence humaine ne pourra pas, à elle seule, en tirer tout le sens”.

La robotique n’est plus une fiction, elle sera de plus en plus incontournable sur un théâtre d’opérations, qu’il soit terrestre, aérien, naval et sous-marin, surtout face à des menaces de missiles hypervéloces. Car, comme on le rappelle à la direction générale de l’armement (DGA), “les robots ouvrent un champ des possibles bien supérieur à ce que l’homme sait faire aujourd’hui”. Ils peuvent donc parfaitement s’inscrire dans la doctrine des 3D (“dirty, dull and dangerous”, soit en français : pénible, sale et dangereux). Pour l’heure, la DGA travaille sur la maîtrise des interactions homme-machine. “On voudra toujours garder l’homme dans la boucle, avait d’ailleurs expliqué en 2016 lors du Paris Air Forum la directrice de la stratégie de la DGA, Caroline Laurent. On ne va pas complètement s’en défaire. Mais quel sera l’équilibre ? Où sera l’homme ? Le garde-t-on juste pour la supervision ou doit-il être au plus près du théâtre ?” En tout cas, le monde de la défense a un besoin de mieux maîtriser ces domaines, qui viennent plutôt du civil.

Faut-il aller plus loin ? “Il existe aujourd’hui un débat qui est légitime : est-ce qu’on peut mettre sur le terrain des systèmes qui vont continuer leur apprentissage dans l’environnement opérationnel ?” s’est interrogée Florence Parly.

“Il y a de nombreux avantages à étudier au moins cette piste-là sur des fonctions qui ne mettent pas en jeu la chaîne de mission et encore moins la chaîne de feu, poursuit-elle. Par exemple, dans le domaine de la maintenance prédictive, ces systèmes peuvent se nourrir de l’environnement qui entoure nos appareils en mission”.

En outre, à l’horizon de 2030, des programmes d’essais d’interfaces cerveau-machine seront également étudiés en France, estime le SGDSN. “Les utilisations au sein de nos forces armées en dehors de ces essais resteront limitées soit à un usage thérapeutique, soit à un emploi par une population militaire restreinte, sur de courtes durées, de dispositifs non invasifs augmentant les capacités sensorielles”, précise le SGDSN. La guerre du futur est déjà bien là.


 Plus d’infos sur l’économie & la finance sur latribune.fr

Les plus lus