Robots tueurs, science-fiction, émotion et manipulation

Réalisé par le site Ban Lethal Autonomous Weapons pour sa campagne de sensibilisation Stop Killer Robots, le court métrage Slaughterbots a été présenté à Genève à l’occasion d’une rencontre sur les armes conventionnelles en novembre 2017 et a obtenu un succès fracassant sur les réseaux/médias sociaux.

À mi-chemin de la série Black Mirror et du film culte Matrix, cette fiction met en scène un essaim de minuscules drones dotés d’une technologie de reconnaissance faciale et munis de charges perforantes, qui sont ensuite utilisés par un mystérieux groupe terroriste pour commettre un massacre dans un amphithéâtre. Des centaines d’étudiants sont précisément identifiés, inlassablement traqués et froidement assassinés par des petits quadcoptères dans les couloirs d’une université. Pas de quartier. Aucune issue possible.

Vétéran mondialement reconnu de la recherche en intelligence artificielle et professeur à l’université de Berkeley, Stuart Russell conclut la vidéo coup de poing par un cri d’alarme : « Je travaille sur l’intelligence artificielle depuis 35 ans et ce film montre le potentiel qu’apportent la miniaturisation et la militarisation pour des technologies qui existent déjà. Il est énorme, car elles peuvent tuer des humains et mettraient en péril notre sécurité et notre liberté. »

Malheureusement, ce film verse dans l’approche purement spectaculaire et émotionnelle en imaginant des quadcoptères armés et intelligents qui éliminent efficacement des foules candides et innocentes. Il n’enrichit guère le débat sur les petites armes létales et autonomes, évite la complexité des enjeux et ne suscite que très peu de questions sensées.

En filigrane, Slaughterbots tente d’abord d’associer intelligences artificielles (IA), petites armes létales et autonomes et armes de destruction massive, puis de reléguer les micro-drones armés et intelligents parmi les armes de destruction massive ; qui seraient de facto appelées à être strictement réglementées ou interdites par des traités internationaux – à l’instar des armes nucléaires, biologiques et chimiques. Quiconque n’adhère point à cette vision n’est qu’un apôtre des « robots tueurs ».

Toutefois, la stricte réglementation ou l’interdiction d’une arme n’empêche guère les terroristes ou les dictateurs de les utiliser.

Malgré l’interdiction des mines antipersonnel, des groupes terroristes ou insurgés fabriquent eux-mêmes des mines artisanales – communément appelés Improvised Explosive Devices (IED) ou engins explosifs improvisés. Les Talibans et Al-Qaïda ne s’en privent guère contre l’armée afghane et les troupes américaines/européennes. Les dictateurs Saddam Hussein (Irak) et Bachar El-Assad (Syrie) n’ont eu aucun scrupule à recourir aux armes chimiques en temps de paix ou de guerre (1) contre des populations civiles, des factions rebelles ou des organisations terroristes… Et ces dernières ont fait de même (2) pendant les guerres d’Irak et de Syrie. En effet, l’Etat islamique avait également développé une passion particulière pour la chlorine et le gaz moutarde (3).

En bref, les vrais méchants n’ont que faire de la loi.

Parallèlement, des états comme l’Inde, le Pakistan, la Corée du nord et Israël ont acquis l’arme nucléaire, peu importe qu’ils soient signataires ou non du Traité de Non-Prolifération (TNP) ou soumis à un embargo international. Ces états voulaient la Bombe, ils ont eu la Bombe… qui nécessite pourtant des moyens conséquents en recherche & développement (science, technologie, logistique, finances).

Dans le cas des micro-drones armés et intelligents, aucune réglementation ou interdiction n’entravera leur développement car les coûts de fabrication sont très faibles et les technologies embarquées sont librement accessibles à tous.

Aujourd’hui, plusieurs modèles de quadcoptères (autonomes, programmables ou télécommandés par smartphone/tablette) et leurs divers composants sont disponibles en grande surface et dans l’e-commerce pour 300 euros et plus. Ces engins peuvent être assemblés dans une chambre ou dans un garage et dérivés vers des myriades de fonctions possibles et imaginables : photographie, vidéo sportive, livraison de matériel, peinture de bâtiments, lance-flammes aérien, tronçonneuse volante, etc.

En effet, un slaughterbot repose essentiellement sur l’innovation combinatoire car il exploitera de plus en plus des « solutions et technologies sur étagère » : microcontrôleur, châssis, hélice, bras rotor, élément 3D imprimé, app de reconnaissance faciale, etc.

Ce n’est qu’une question de temps avant qu’un bricoleur ou un ingénieur incorpore une arme à feu à un micro-drone artisanal, commercial ou militaire dans un garage ou dans un laboratoire.

Ainsi, le futur de la dronautique sera similaire ou comparable à celui de la cybersécurité : rien n’empêche ou n’interdit au hacker de développer en catimini un malware ou de pirater un serveur gouvernemental ou commercial avec son ordinateur personnel, sauf la peur éventuelle de l’uniforme. Rien n’empêchera ou n’interdira au bricoleur d’acheter, d’assembler ou de dériver un quadcoptère pour un usage létal, sauf la peur éventuelle de l’uniforme.

Rien n’empêche ou n’interdit à un état de développer en catimini des malwares, de pirater des serveurs gouvernementaux ou commerciaux, d’acheter, d’assembler ou de dériver des quadcoptères pour un usage létal, sauf la peur éventuelle… de quoi, au fait ?

Un accord de réglementation ou un traité d’interdiction des petites armes létales et autonomes incitera peut-être quelques états signataires (et seulement ceux signataires) à la retenue ou à la prohibition mais n’aura que très peu voire aucun effet sur les acteurs non-étatiques. Bienvenue chez les fous volants et leurs drôles de micromachines !

Par ailleurs, la stricte réglementation ou l’interdiction des petites armes létales et autonomes implique une restriction drastique de leurs premiers facteurs d’autonomie : l’électronique, l’informatique et l’intelligence artificielle grand public.

Faut-il pour autant ralentir ou restreindre l’innovation technologique afin de barrer la route aux « robots tueurs » ? Les états, les chercheurs, les ingénieurs, les inventeurs, les bricoleurs, les entreprises et les populations de tous bords seront-ils réellement enchantés par cette perspective ?

Par ailleurs, une arme létale et autonome est-elle moins éthique qu’une arme identique contrôlée par un humain ou dotée d’une informatique moins évoluée ? Et si les étudiants du film Slaughterbots avaient été tués par des micro-drones télécommandés, par un chasseur-bombardier F-16 ou par un drone Predator ?

Des armes létales et autonomes telles que le missile de croisière Tomahawk, le missile air-air Sidewinder, le missile air-sol Hellfire, le système de défense anti-aérien Phalanx et la torpille MU-90 – pour ne citer qu’elles – existent depuis belle lurette et font souvent la une des médias. Cependant, elles ne sont guère équipées d’une app de reconnaissance faciale, ne sont guère contaminées par la vogue « intelligence artificielle » et ne peuvent être fabriquées ni dérivées dans une chambre ou dans un grenier du fait de leur lourdeur, de leur volume, de leur complexité et de leur coût.

Vous n’êtes pas prêts de fabriquer un missile fire and forget ou une torpille intelligente dans votre salon, et ne courez guère le risque d’être victime d’une telle arme dans un pays riche en temps de paix, sauf accident ou cas exceptionnel. Votre grande et belle armée emploie ces onéreux et affreux joujoux dans des contrées pauvres et lointaines. En quelques mots, vous êtes nettement mieux loti qu’un civil irakien en ville ou son homologue afghan à la campagne.

C’est probablement pour toutes ces raisons que les exégètes de Stop Killer Robots n’ont pas bruyamment vilipendé ces armes létales et autonomes qui réunissent pourtant toutes les conditions pour figurer parmi les « robots tueurs » et autres incarnations du diable.

D’où quelques questions qui fâchent… savamment ignorées ou éludées par Stuart Russell et compagnie.

Quels critères (volumes/masses physiques, fonctions offensives ou défensives, degrés de complexité, d’autonomie et d’efficacité opérationnelle, etc) permettent de classer les « robots tueurs » ? Comment réglementer ou interdire les petites armes létales et autonomes sans distinction claire de leurs caractéristiques et sans définition nette de leurs usages autorisés ?

Le film Slaugherbots a tout de même l’immense mérite d’alerter le public – sur une éventuelle et chaotique course aux micro-armements intelligents et sur la prolifération consécutive de « robots tueurs » artisanaux ou industriels, de surcroît utilisés à des fins de répression ou de génocide par des régimes tyranniques ou par des individus malveillants. Corollairement, les forces de l’ordre seraient confrontées à l’expansion de technologies nivelantes  (dronautique et IA grand public, impression 3D, géolocalisation, crimeware, etc) qui amoindriraient leurs atouts technologiques et tactiques face à d’ingénieux terroristes ou criminels.

Néanmoins, aucun être humain n’a été tué par un slaughterbot supervisé par un terroriste, à ce jour. Dès lors, comment interdire une arme inexistante ou probable et potentiellement létale ? Quels critères seraient appliquées en vue d’une prohibition préventive ? Les gouvernements devraient-il attendre que des petits « robots tueurs » fassent « suffisamment » de victimes avant de décréter leur interdiction ?

La formation et l’expérience très poussées des unités policières/militaires d’élite (RAID, GIGN, SWAT, etc) au combat en milieu urbain ou rural (tactique, technologie, armement) ont prouvé leur efficacité globale contre des commandos terroristes. Pourquoi n’en serait-il pas de même avec des petites armes létales et autonomes ? Des micro-drones armés et intelligents (létaux ou non-létaux) spécialisés ou dérivés vers la lutte antiterroriste sont-ils envisageables ? Doit-on freiner ou prohiber leur recherche & développement et donc priver les états d’un éventail de contre-mesures peu ou prou adéquates en cas « d’attaque terroriste classique ou robotisée » ?

À quoi bon prôner d’emblée l’interdiction des petites armes létales et autonomes au nom d’un vague principe de précaution et sur la base d’une fiction ?

Et si de nombreux profils issus de divers horizons (chercheurs, ingénieurs, policiers, militaires, prospectivistes, juristes, sociologues, philosophes, médecins, responsables politiques, société civile, etc) produisaient des analyses transversales et des échanges réalistes sur les « robots tueurs », leurs formes et leurs fonctions ?

Charles Bwele, Electrosphere

Annexes :

  1. What do we know about the regime’s use of chemical weapons in Syria? (The Guardian)

  2. L’EI a déjà utilisé des armes chimiques en Syrie et en Irak, selon la CIA (France 24)

  3. ISIS Used Chemical Arms at Least 52 Times in Syria and Iraq, Report Says (New York Times)

  4. Les militaires angoissés par les technologies « nivelantes » (Le Point)

Share/Partage

Charles Bwele

One Comment

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

1 × deux =