Artificialités futures – Quelques réflexions stratégiques autour des robots

Les robots suscitent plusieurs séries de questions stratégiques. Précisons d’emblée ce que nous entendons par robot : tout dispositif tangible (un programme informatique n’est donc pas un robot) qui se déplace de façon autonome mais contrôlée (pas de pilotage direct, comme pour une voiture ou un avion, mais un pilotage distant), de façon adaptée à son milieu (un drone est un robot aérien), et spécialisé dans certaines tâches (un robot n’a donc pas la complétude d’actions que peut avoir potentiellement un combattant).

http://www.nouvellestechnologies.net/images/l/ls3/LS3-AlphaDog.jpg (Source)

Quelles sont ces questions ?

La première pose la question de leur utilité individuelle.

La seconde envisage celle de leur action de groupe et de leur co-action avec les hommes.

La troisième regarde leur intégration au cyber.

La quatrième pose la question de leur intelligence, c’est-à-dire leur capacité à prendre des décisions autonomes, jusque et y compris à tuer (thème des robots tueurs).

Enfin et de façon transversale, on peut évoquer la dimension technologique, donc capacitaire, notamment de la part de nations réticentes à engager des hommes sur le terrain (ou économes en hommes).

1/ Utilité stratégique des robots

Personne n’envisage vraiment que les robots remplacent complètement l’homme. À une dissymétrie conventionnelle répondrait inévitablement une asymétrie toujours plus inventive et adaptative, selon le cycle observé au cours des années 2000. Aussi ne conçoit-on à court terme que l’emploi de robots dans quelques fonctions identifiées.

Le premier emploi concerne le renseignement : des robots autonomes pourraient investir des zones dangereuses ou infestées pour vérifier tel ou tel point, avant d’y engager des troupes normales. Ce principe préside déjà à l’emploi des drones d’observation, selon la gamme stratégique, opératif, tactique.

Le deuxième emploi concerne les fonctions de soutien et de logistique : emport de matériel ou de munitions au profit immédiat des troupes afin de les alléger (le besoin s’en fait cruellement sentir quand on voit l’augmentation du poids des dispositifs de protection individuelle et des dispositifs de communication cyber désormais emportés) ; livraison de plus longue portée des flux logistiques.

La troisième tient à certaines fonctions spécialisées : par exemple, on pense aux robots démineurs (qui existent déjà) mais l’imagination est féconde (observateur avancé d’artillerie, désignateur laser de cibles, etc…).

Toutefois, ces usages n’emportent pas le remplacement stricto sensu des combattants proprement dits. Les robots sont conçus pour améliorer l’environnement du combattant, non pour remplacer celui-ci.

2/ Action de groupe et co-action avec l’humain

On a jusqu’à présent envisagé des robots « individuels » : tel robot est programmé pour telle tâche. Toutefois, les progrès de la miniaturisation et du contrôle électronique font entrevoir des défis nouveaux.

D’une part, on peut envisager des groupes de robots. Soit ils ont tous la même tâche et le combattant bénéficie de leur saturation (exemple des nuages de nanodrones permettant de garantir l’obtention du renseignement ou la couverture d’une zone plus vaste simultanément), soit ils ont des tâches dédiées et forment systèmes. Un groupe de robots spécialisés pourrait ainsi être conçu pour préparer des obstacles de manœuvre dans une zone donnée, selon des systèmes intégrés.

D’autre part, la question de pose de l’interaction avec l’humain. Cela soulève la question de la programmation mais aussi de l’autonomie du robot : celui-ci doit il agir « indépendamment » ou doit il adapter son comportement à ce qu’il décèle de l’humain auquel il est attaché ?

Aujourd’hui toutefois, on conçoit les robots comme interagissant directement au profit du combattant. Or, on observe une autonomisation croissante des robots, amenés à prendre en charge des fonctions de plus en plus vastes. Si le robot est toujours contrôlé, la question demeure de la responsabilité de son contrôle. Prenons l’exemple d’un robot logistique : doit-il être attaché à un combattant ou à un groupe de combattants ? Tel nanodrone d’observation doit-il être contrôlé localement, pas l’équipe avancée, ou plus en arrière par le peloton ou l’escadron ?

Au fond, le robot peut remettre en cause l’architecture du commandement, augmentant la complexité des structures mais aussi du combat interarmes. Toute fonction nouvelle et artificielle, structurellement organisée pour un contrôle « à distance », incite à une autonomisation de ce contrôle. Cela reporte au niveau supérieur la nécessité de l’intégration opérationnelle, à l’encontre d’une certaine fluidité décentralisée que requiert souvent le combat de contact.

3/ Intégration cyber

Pas de robot sans programmation ni liaison de données. On a déjà quelques exemples de drones piratés, soit pour obtenir leurs données, soit pour modifier leur plan de vol. On peut donc imaginer une convergence accrue entre cyber et robot : l’agression cyber se dirigeant contre les robots selon les catégories classique d’espionnage (vol des données du robot d’observation), de subversion (on peut imaginer l’implantation de données fausses dans le robot, qui tromperait dès lors son contrôleur à distance), de sabotage enfin (soit en cassant le robot, soit en lui donnant des instructions fausses).

Nul doute qu’il s’agit là d’une des perspectives les plus probables de développement du combat cyber. Celui-ci ne sera pas seulement tourné contre des objectifs seulement cyber (réseaux de l’ennemi) mais pourra viser le sous-ensemble robotique de l’ennemi.

En revanche, l’action de robots contre des dispositifs cyber paraît malaisée à envisager. Plus probable sera l’intégration de ciblage cyber à la programmation des robots. Grâce à l’ingénierie électronique voire à l’analyse des trafics des données, un système expert sera capable de déterminer et d’identifier des cibles (individuelles ou collectives) de façon à aider le ciblage. Celui-ci sera utilisé aussi bien par les combattants traditionnels que par des robots pilotés (le cas des robots autonome est discuté à la section suivante).

Cette convergence soulève déjà de nombreux problèmes avec des robots commandés : elle devient encore plus inquiétante dans le cas de robots autonomes : quid de l’intrusion extérieure dans un robot autonome pour modifier ses critères d’action ? Ce danger latent milite pour le maintien d’un contrôle à distance des robots.

4/ Autonomisation

Or, l’étape qui suit l’étape précédente est celle de l’autonomisation des robots, grâce aux progrès de l’intelligence artificielle et du machine learning. Constatons que pour l’instant, on n’a pas d’exemple précis de tels engins et que la perspective de leur existence se porte à moyen terme au plus tôt. Toutefois, cela n’empêche pas de réfléchir dès à présent sur cette question.

Dans ce cas, le lien de contrôle direct entre le pilote de robot et son extension serait coupé, pour des missions de courte durée (cas d’une mission de déminage localisée, par exemple) ou pour des missions plus complexes. Nous n’en sommes pas proches mais la question se pose dès à présent. Avec l’autonomisation, le robot se distancie de l’homme et de ses initiatives, qu’il s’agisse de l’homme contrôleur ou de l’homme appuyé. Il acquiert une relative autonomie de décision.

Dès lors, les missions peuvent changer. Aux misions énoncées précédemment, on peut imaginer ajouter d’autres missions, plus complexes : par exemple, une mission de reconnaissance sur un quartier de ville, par un robot unique ou un groupe de robot (action en essaim). Dans un premier temps, les actions seraient passives (observation). Peu à peu, elles évolueraient vers des fonctions actives (déminage, destruction d’obstacles). L’ultime étape serait celle de transformer le robot en machine combattante et à la décision autonome. C’est le thème du robot tueur, qui a beaucoup suscité de débats au cours de l’été 2015.

Qu’un robot puisse tuer est une chose acquise : certains drones (UCAV) sont déjà des robots tueurs. Pour l’instant, la décision d’engagement reste au contrôleur. Déléguer la décision d’engagement reviendrait à imaginer des règles d’engagement extrêmement précises. Or, l’expérience suggère la difficulté d’une telle précision. C’est d’ailleurs à cause de ce flou de la guerre qu’on observe déjà de nombreux cas de méprise et de tirs fratricide ou de bavures.

Ici, deux points de vue s’affrontent. Le premier dénonce l’autonomie et donc la perte de contrôle de l’humain. Le second remarque que l’humain n’est pas parfait et est sujet lui aussi à des erreurs de jugement, d’autant plus qu’il est soumis à la fatigue et au stress du combat, ce qu’a priori le robot ne subirait pas. On le voit, la réponse n’est pas simple. Elle mérite de plus amples débats, à la lumière surtout des évolutions technologiques. S’il est déjà temps de réfléchir, il est trop tôt pour trancher.

5/ Aspects capacitaires

Pour les militaires, les robots constituent un avantage indéniable : celui de suppléer à la rareté des ressources humaines, de renforcer l’autonomie et la protection des troupes, de bénéficier de l’avantage technologique des puissances industrielles avancées. Aussi n’est-ce pas étonnant si la robotique est surtout développée par des pays dont la ressource humaine est relativement rare ou qui portent une grande attention à la protection du combattant. On pense bien sûr aux États-Unis mais aussi au Japon.

Constatons que les robots adhèrent bien à la culture stratégique américaine, toujours tournée vers le développement technologique, la machine devant apporter la victoire. De plus, ce développement technologique renforce un complexe militaro-industriel et concours à la domination géoéconomique, que ce soit par le développement de nouveaux produits ou la standardisation technico-opérationnelle.

Pour autant, de tels développements se heurtent aux limites habituelles de la vision américaine. Obsession de la victoire immédiate sans prendre en compte l’ensemble des données politiques et sociales d’un conflit (que sert d’abattre Saddam Hussein en trois semaines d’une brillante campagne si c’est pour rester collé plusieurs années dans un chaos non maîtrisable ?), obsession technologique qui ne soit pas les possibilités de contournement qu’inventera toujours l’ennemi face à une domination donnée (l’asymétrie répondant à la dissymétrie).

***

Aussi les robots entreront-ils sur l’espace de bataille et modifieront partiellement son paysage. Toutefois, s’ils ajouteront de la complexité, ils ne sauraient constituer l’arme miraculeuse, la silver bullet qui assoira pour longtemps la supériorité stratégique.

 

Olivier Kempf

Share/Partage

Olivier Kempf

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

un × cinq =