Intelligence artificielle et robots armés, un mélange explosif ?

Intelligence artificielle et robots armés, un mélange explosif ?

« L'intelligence artificielle est appelée à changer la nature même de la guerre ».

                         Bob Work, Secrétaire adjoint à la Défense américaine.

« La nation qui sera en avance sur l’intelligence artificielle contrôlera le monde. »

                         Le président russe Vladimir Poutine, selon le magazine en ligne The Verge.

VÉRITABLE « GAME-CHANGER », le robot autonome armé pourrait considérablement bousculer l’échiquier international. En effet, l’État qui disposerait d’une arme aux capacités surhumaines, littéralement, en termes de force, de résistance et de précision, jouirait en théorie d’un avantage décisif.

Pour beaucoup d'intervenants, aussitôt qu'un des protagonistes aura décidé de se doter d'armes offensives autonomes, les autres n'auront pas d’autre choix que d’en faire autant.

Or, comme le secret à cet égard fait partie de la stratégie, le risque est évidemment que tous se lancent silencieusement dans la course, de peur d’être devancés et de subir un désavantage tactique majeur.

Autre facteur : la rapidité à laquelle la technologie évolue.

En 2012, une étude de Human Rights Watch et de la International Human Rights Clinic de la faculté de droit de Harvard, mettait le public en garde, affirmant que l’on pourrait voir émerger « des armes autonomes, capables de sélectionner et viser des cibles sans intervention humaine » dans… 20 à 30 ans !

À peine cinq ans plus tard, cette possibilité est déjà à nos portes.

(Nous allons nous concentrer ici sur les robots armés, même si l’intelligence artificielle, comme nous le verrons, trouve bien d’autres applications, tant offensives que défensives, en matière d’armement.)

Les États-Unis

Au vu de la citation de Bob Work, plus haut, l’on pourrait penser que les USA se sont jetés à corps perdu dans l’aventure de la robotique armée. Or si l’on se fie au discours officiel et à plusieurs critiques (américaines, précisons-le), les avancées de l’armée américaine, sur ce front, seraient en réalité modestes et pragmatiques, et confinées avant tout à des robots non armés.

Selon le magazine américain Breaking Defense, en 2017, l'armée américaine aurait dépensé 521 millions de dollars en robotique, dont 79 % auraient été consacrés aux drones aériens et « seulement » 20,6 millions de dollars à l'achat de véhicules terrestres sans pilote, en majorité destinés au déminage ; par ailleurs, 91,4 millions de dollars ont été alloués à la R&D, dont 40 % cent également au déminage.

Les investissements américains seraient essentiellement consacrés aux drones et, du côté des véhicules terrestres armés, l’on viserait surtout à développer des engins de taille modeste et légèrement armés, voire des « mules » servant uniquement à transporter de l’équipement lourd ou du matériel de soldats d’infanterie. À de rares exceptions près – et contrairement à son pendant russe – l'armée américaine ne se serait donc pas aventurée dans le développement d’engins de combat autonomes. Pour le moment.

Certains experts estiment pourtant que même une approche aussi modeste permet d’établir des bases solides pour des projets plus ambitieux et, en tablant sur des valeurs sûres, ouvrir la voie au développement de machines fiables et de plus en plus autonomes dotées de technologies matures.

Quelques exemples.

  • Les USA utilisent depuis 2011 un dispositif transportable de 13 kg, le XM1216 Small Unmanned Ground Vehicle. Ce Packbot développé par la société internationale iRobot sert surtout d’instrument de surveillance et de reconnaissance.
  • Un concours, le Squad Maneuver Equipment Transport, vise à développer un robot servant à seconder l’infanterie. De la taille d’une voiturette de golf, le S-MET transporte de l’équipement de l’eau, des munitions, et autres impedimenta qui ralentissent la progression des soldats.
  • Non armé, le plus gros véhicule terrestre sans pilote de l'Armée américaine, le Leader-Follower Automated Ground Resupply, lancé en 2017, est destiné au transport. Il s’agit de camions lourds HEMTT-PLS auxquels l’on intégrera une technologie de conduite autonome : le convoi d'approvisionnement suit le véhicule de tête, le seul où il y ait un pilote.
  • Seul engin autonome armé relativement imposant de l’armée américaine, le Armed Robotic Combat Vehicle développé par BAE Systems ne se compare en rien aux monstres russes. Sa taille relativement restreinte lui procure pourtant plusieurs avantages tactiques.

Soldats de l'unité des "Systèmes de Combat Futurs", utilisant un robot sevrant à dégager une route lors d'un exercice au Texas. (Source : Wikimedia)

Comme elle élimine l’habitacle, l'automatisation permet de réduire la taille des véhicules autonomes. Or un véhicule plus petit est moins facile à détecter, ce qui en fait une cible moins facile à atteindre, il est plus maniable et peut se faufiler plus facilement. Sur le terrain, le fait d'en imposer compte moins que la capacité de se fondre dans le décor. Enfin, sa moindre taille fait qu’il consomme moins de carburant, ce qui lui donne une meilleure autonomie et réduit les exigences en approvisionnement. (Breaking Defense)

L'artiste Michael Salter contemple sa création, le Styrobot, une installation en styromousse créée pour l'exposition « Robots: Evolution of a Cultural Icon » présentée San Jose Museum of Art, en Californie, en 2008. (Source : Wikimedia)

Pour le moment, la politique officielle du Department of Defense (DoD) est de toujours garder un humain « dans la boucle », point de vue que le secrétaire à la défense sous Obama, Ashton Carter, a réitéré avec vigueur en septembre 2016. (Le présent Secrétaire à la Défense, James Mattis, lui, semble vouloir orienter le développement vers une intégration croissante de l’intelligence artificielle à l’armement.)

Le problème, c'est que tous les pays, c'est bien connu, n'auront pas les mêmes scrupules. Et les regards de se tourner vers la Russie.

Russie : la course aux robots armés ?

Par contraste avec ce que l’on sait pour le moment des avancées américaines, les imposants chars autonomes Uran-9 (11 tonnes) et Vikhr (16 tonnes) ont de quoi faire frémir.

La Russie s'est en effet lancée dans le développement et la fabrication d'une large gamme de systèmes autonomes, du plus petit au plus gros, incluant « FEDOR » (pour Final Experimental Demonstration Object Research). Ce robot humanoïde capable de tirer au pistolet des deux « mains » serait en fait destiné à l’exploration spatiale.

Selon certains experts, cependant, les Russes n'auraient pas autant d'avance que leurs machines impressionnantes le laissent entendre. Bon nombre de ces véhicules « autonomes » seraient des maquettes de parade sophistiquées. D’autres encore seraient des machines déjà existantes avec des systèmes de contrôle à distance montés après-coup (retrofitted). Or de tels engins, que l’on ne peut qualifier d’autonomes, sont vulnérables dans la mesure où ils dépendent d’un lien de communication continu.

La variante Platforma-M du support de combat multifonctionnel. Produit en série par l'armée russe. Source : Wikipedia)

D’autres sources estiment pourtant que les recherches russes viseraient surtout à utiliser l'intelligence artificielle non pas pour qu'un véhicule terrestre autonome appuie les offensives, mais pour qu’il puisse se tirer d'affaire s'il perd la communication avec ses opérateurs humains.

Pourtant, les dirigeants russes aussi auraient des réserves, en ce qui concerne les armes autonomes. Préoccupation éthique ou prudence opérationnelle ?

« L'avance » de la Russie tiendrait-elle avant tout à son opacité et à une absence de scrupules, voire de réflexion, sur le plan éthique, ce qui obligerait ses vis-à-vis à s’attendre à tout ?

Des robots éléphants serviront-ils un jour, comme ceux d’Hannibal, de véhicules de guerre ? (Source : Wikimedia)

Le terrain des réseaux

La Russie aurait largement centralisé ses activités stratégiques et serait en train d’approfondir son expertise en matière de détection, d'espionnage et de brouillage des ondes radio.

C’est l’EW, pour Electronic Warfare, un secteur que l'armée américaine aurait largement délaissé après la chute de l'Union soviétique.

En effet, si l’on prend l’ensemble des missions militaires, en fait bon nombre d’entre elles ne font pas appel à des forces offensives, notamment :

  • la défense antimissile, qui exige une prise de décision et des temps de réaction extrêmement rapides ;
  • tout ce qui concerne la cybernétique, soit les processus de commande, de communication, de contrôle et de régulation des systèmes, et les données qui transitent sur un réseau ou sur le spectre électromagnétique.

Or l’intégration de l’IA pourrait avoir un immense impact sur ces opérations « autres ».

En effet, tout engin semi-autonome ou en partie contrôlé par un humain doit être connecté à un réseau. La capacité d'espionner, de bloquer, de brouiller ou de hacker les communications du champ adverse est donc éminemment stratégique.

Les Américains auraient englouti, entre 2003 et 2009, pas moins de 20 milliards de dollars dans un programme baptisé Future Combat Systems, destiné à développer des véhicules armés plus légers et des robots armés, et à moderniser le réseau de commande et contrôle (command-and-control network), notamment avec le développement d’un système d’exploitation central intégré, le « System of Systems Common Operating System » (SOSCOE), tâche confiée à Boeing. 

Après une série d’échecs (p. ex., un seul des 18 drones et véhicules autonomes projetés a vu le jour), l’on serait résigné à verser 1 milliard de dollars pour mettre un terme à ce programme, qui n’aurait pas vraiment porté fruit, selon certains experts.

D’aucuns soutiennent que ce coûteux programme a au moins permis à l’armée américaine d’apprendre quelques leçons précieuses, notamment :

  • éviter à l’avenir de donner pleine latitude à des sous-traitants, en l’occurrence Boeing ;
  • faire le maximum pour surmonter l’inertie bureaucratique et acquérir l’agilité dans l’expérimentation et l’innovation qui caractérise la Silicon Valley ;
  • privilégier l’acquisition de technologies privées, plutôt que de chercher à tout développer elle-même.

Le terrain des médias

Autre lieu d’âpres affrontements : l’opinion publique. Ainsi, Libération s’appuie entre autres sur une déclaration du lieutenant général Sean MacFarland pour affirmer que l’armée américaine serait en fait à l’avant-garde de la course aux armes autonomes. Lors de la Mad Scientist Conference, ce dernier aurait « prédit que des "systèmes autonomes" seront bientôt déployés sur le champ de bataille aux côtés des troupes, "pour porter des équipements et actionner des armes". » Cela donne effectivement l’impression que toutes les parties en présence sont dans la course.

Cependant, la publication américaine Army Times News cite une autre portion de la même entrevue avec le général Becker : « Ils [nos adversaires] vont envoyer des systèmes autonomes au front. Ils vont faire ce que nous ne ferions pas. »

Selon Libé, la superpuissance américaine serait au contraire très activement engagée dans une course aux armements autonomes comparable au projet Manhattan, rien de moins. Elle y aurait investi, au bas mot, « 18 milliards de dollars (15 milliards d’euros) d’ici 2018 sur quelque 600 milliards de dépenses militaires annuelles ».

Ces chiffres sont sans commune mesure avec ceux de Breaking Defense, cité plus haut, qui parlait de 521 millions de dollars investis en robotique en 2017 (soit près de 36 fois moins).

Qui croire, dans cette guerre de chiffres ?

Où est le véritable champ de manœuvres ?

En fait, selon Paul Scharre, directeur de la technologie et de la sécurité au Center for a New American Security, l’avance des Russes serait moins concrète qu’abstraite – mais elle n’en serait pas moins réelle.  

Scharre compare l’avance actuelle des Russes à celle que le blitzkrieg avait donnée aux forces allemandes lors de la Seconde Guerre : leurs divisions blindées avaient alors dominé celles de la France et de l'Angleterre combinées, pourtant beaucoup plus nombreuses. En fait, ayant longuement préparé son offensive, l’armée allemande avait équipé ses avions, ses chars et ses camions de radios, une technologie dont elle n’avait pas l’exclusivité, mais qui lui procurait des moyens de coordination supérieurs, à grande échelle.

Autrement dit, on laisse entendre que pendant que les Américains réfléchissent, tergiversent, s’interrogent et se posent des questions éthiques (du moins en théorie), les Russes paraissent décidés à investir ce territoire nouveau, où tout pourrait se jouer demain.

Sans aborder les façons d’influencer le vote des électeurs dans les autres pays, on peut parler des réseaux, d’une part, et des relations publiques, de l’autre.

Des robots autonomes armés déjà déployés

Et qu’en est-il sur le terrain?

En fait, on sait que certains équipements autonomes létaux sont déjà déployés sur des systèmes de défense. Quelques exemples.

  • Le MK 15 Phalanx Close-In Weapons System: utilisé sur les navires de la Marine américaine, ce système peut, sans intervention humaine, détecter, évaluer, suivre à la trace, cibler et tirer sur des missiles antinavires et les menaces aériennes haute vitesse – incluant des avions pilotés par des humains. (Source)
  • Tout le système de défense aérienne et de missile Aegis de la Marine : il est équipé d'un mode automatique (rarement utilisé) qui fixe des priorités et peut tirer sur des cibles, habitées et non habitées, sans intervention humaine. (Source)
  • Le SGR-A1 de Samsung : déployé sur la zone démilitarisée coréenne, ce robot sentinelle utilise une caméra à faible luminosité et un logiciel de reconnaissance des formes pour détecter les intrus. Le cas échéant, il émet un avertissement verbal. Il est aussi équipé d'une mitrailleuse qui peut être actionnée à distance par un soldat que le robot a alerté – ou par le robot lui-même, s’il est en mode entièrement autonome. (Source)

Le pour et le contre

Sans insister sur les avantages stratégiques et tactiques des «systèmes d’armes létales autonomes», on peut résumer comme suit les arguments anti-interdiction :

  • les systèmes offensifs autonomes offriront un net avantage tactique et stratégique sur le terrain ;
  • ils permettront d'épargner les vies de combattants humains et de remplacer les soldats lors de missions, difficiles ou dangereuses ;
  • ils permettront de faire des économies considérables ;
  • de petits groupes incontrôlables pourront de toute façon utiliser des moyens relativement modestes pour fabriquer des armes autonomes dans des installations de fortune, simplement avec des composantes déjà sur le marché ;
  • (tel que mentionné plus haut) si nos adversaires en sont équipés, cela leur donnera un tel avantage tactique et stratégique que nous n’aurons pas le choix d’en construire aussi – alors mieux vaut s’y mettre le plus rapidement possible.

Les opposants au développement de robots autonomes armés affirment par contre que l'on doit interdire ces armes pour des raisons essentiellement éthiques et légales, mais aussi stratégiques :

  • moralement parlant, l’on ne peut confier à une machine ou à un algorithme le pouvoir de tuer un être humain ;
  • de telles armes pourraient donner à un attaquant la possibilité de décimer des populations humaines (HRW) ;
  • l’utilisation de ces armes supposerait que l’on délaisse toutes les lois censées régir les conflits armés, notamment les garanties face aux populations civiles (HRW) ;
  • des pirates informatiques pourraient détourner des armes autonomes, avec des résultats évidemment terrifiants ;
  • le fait que de telles armes puissent déjà exister n’est pas une raison de renoncer à les bannir : ainsi, l’interdiction des mines antipersonnel et de lasers aveuglants, par exemple, a tout de même produit des résultats probants.

L'argument financier

Revenons rapidement sur la question du budget.

  • Un robot Talon, véhicule autonome de petite taille sur lequel on peut monter divers armements, coûte environ 230 000 $.
  • Dans chaque brigade de 4000 soldats, certains estiment que de tels engins permettraient de se dispenser, sans perte d'efficacité, d’environ un soldat sur quatre.

Cela représenterait des économies potentielles d’environ 620 000 $ par soldat remplacé, soit quelque 620 millions de dollars par an pour une seule brigade de quoi faire réfléchir bien des gestionnaires militaires – et des élus.

Réactions de la société civile

Depuis quelques années, plusieurs sommités ont réagi à l’émergence de l’AI et aux avancées de la robotique.

  • En avril 2013, le rapporteur spécial des Nations unies sur les exécutions extrajudiciaires sommaires ou arbitraires dépose au conseil des droits humains de l'ONU un rapport qui recommande que les États membres déclarent un moratoire sur la production, le transfert et le déploiement de robots armés autonomes (LARS).
  • Également en 2013, des scientifiques et de chercheurs de 37 pays publient le « Scientists’ Call to Ban Autonomous Lethal Robots». Un appel à une interdiction qui se concluait par la déclaration que l’on ne doit pas confier à des machines la décision d'appliquer une force violente.
  • En janvier 2015, Stephen Hawking, Elon Musk et des douzaines d'experts en intelligence artificielle signent une lettre ouverte appelant à la recherche sur les impacts sociétaux de l'IA. Ils affirment que l’IA offre de grands bénéfices potentiels, mais demandent des recherches concrètes sur la manière d’éviter certains « pièges » potentiels à condition de ne pas créer quelque chose sur lequel l’on n’aura pas de contrôle.
  • En juillet 2017, Elon Musk et 115 autres responsables d'entreprises de robotique ou spécialisées dans l'intelligence artificielle cosignent une lettre ouverte aux Nations Unies pour alerter l’organisme international et l’opinion publique au sujet des armes autonomes. « La question clé pour l‘humanité aujourd’hui, dit la lettre, c’est si nous devons commencer une course mondiale vers l’armement IA ou si nous devons l’empêcher de commencer. » (Notre traduction)

Quelques précisions d’ordre juridique

Dans une étude de l’armée américaine, Amitai Etzioni et Oren Etzioni se penchent sur les enjeux – à la fois stratégiques, tactiques et éthiques – de la question.

La robotique présente en effet un problème unique, celui de la responsabilité (accountability) : si un robot autonome tue un civil par erreur dans un affrontement, qui est responsable ? Celui qui l'a créé ? Le fabricant ? Le programmeur ? L'État qui le déploie ? Que se passe-t-il, advenant une erreur de programmation, de fabrication ou une faille dans le processus de décision ?

Les auteurs expliquent que selon le droit international de la guerre (jus in bello), l'on ne peut déployer une arme ou un engin de mort qui ferait en sorte qu’il serait impossible de déterminer clairement qui est le responsable d'éventuelles victimes civiles, par exemple.

D’où la nécessité d’avoir une « chaîne de responsabilité » (chain of accountability). Et avec le robot autonome armé, cette chaîne se dissout totalement.

Selon les Etzioni, toute volonté de bannir les armes autonomes achopperait sur deux obstacles majeurs :

  • la difficulté de définir le concept d'autonomie, car il varie énormément ;
  • le fait que bon nombre d'armes autonomes font déjà l'objet d'une production de masse.

En effet, le concept d’autonomie englobe plusieurs types de systèmes :

  • ceux qui sont hautement automatisés ;
  • le pilotage automatique ;
  • la capacité d’analyser des données, de déterminer lesquelles sont importantes et, à partir de là, de prendre des décisions ;
  • l’ajout d'une dimension d'intelligence artificielle qui leur permet de prendre des décisions autonomes et d’entamer des actions indépendamment d'une volonté humaine, ce qui les rend moins prévisibles.

Même si le comportement d’un système autonome est programmé selon des lois et des stratégies fournies par des humains, l'on ne pourrait pour autant prédire avec précision les actions qui en découleraient.

Certains préfèrent préciser que c'est la sélection autonome de la cible par un robot que l'on devrait chercher à contrôler.

Types d’autonomie

Un rapport de Human Rights Watch (HRW) datant de 2012, Losing Humanity: The Case against Killer Robots, par Bonnie Docherty, définit trois catégories d'autonomie, selon le degré d'implication humaine :

  1. l’humain-dans-la-boucle (human-in-the-loop) : l'humain doit commander l'intervention ;
  1. l’humain-sur-la-boucle (human-out-of-the-loop) : le robot est autonome dans la sélection des cibles et la décision de tirer, mais l'humain peut intervenir ;
  1. l’humain à l’extérieur de la boucle (human-out-of-the-loop) : autonomie complète du robot.

Les Etzioni, eux, définissent comme l'autonomie comme la capacité que posséderait une machine :

  • de recueillir des données ;
  • d’effectuer ses propres délibérations en fonction de ces informations ;
  • de prendre des décisions ;
  • d’agir en fonction de ces décisions.

Leur étude fait référence à une alternative dans les types de mesures :

  • une régulation par l'amont, qui consisterait à fixer d’avance des limites au développement de technologies autonomes ;
  • une régulation par l'aval, par laquelle l'on établirait des règles à mesure que la technologie évolue et se développe.

On le voit, la question est complexe et comporte de nombreuses ramifications.

IA – l’écart entre vision et réalité

Précisons que les systèmes autonomes existants sont alloués à des tâches strictement définies, p. ex., l’interception de missiles. Par contre, l’intégration de l’IA demeure à l’état de vision en ce qui concerne les interventions sur le terrain, où les choses sont moins clairement définies.

Même si les habiletés des robots joueurs de foot s’améliorent sans cesse, elles sont encore à des années-lumière de celles d’Alpha Go, champion du monde au jeu de Go. Cependant, plus on y travaille, plus les capacités des robots se développent. (Source : Wikimedia)

Rappelons ici le « paradoxe de McCarthy ». Dans une vidéo du magazine Wired, l’auteur John Markoff rappelle que lors des discussions sur les capacités des robots, il arrivait souvent à John  McCarthy – le chercheur à l’origine de l’expression « Artificial Intelligence » – de mettre sa main dans sa poche et d’en sortir une pièce de dix cents. La démonstration ? « Encore aujourd’hui, ce geste simple, que nous faisons sans même y penser, demeure hors de portée du robot le plus sophistiqué », dit Markoff.    

En effet, la volonté d’intégrer les deux types d’intelligences peut facilement mener à ce que l’on pourrait appeler l’autre « IA » : l’imbécillité artificielle, résultat de la combinaison néfaste de l'erreur humaine et d’une informatique éminemment perfectible.

Prudence des Américains : PR ou pragmatisme?

Bien sûr, le déploiement de repos intelligents armés pourrait déclencher une réaction négative de la part de certaines populations et alimenter la propagande antiaméricaine.

Cependant, la prudence de la part de l'état-major américain pourrait aussi s’expliquer par le fait que l’on y comprend parfaitement que l'intelligence artificielle est encore loin de pouvoir démêler des situations floues ou ambiguës. Deux exemples.

  • Les Russes auraient développé une tourelle de char autonome que l’on peut fixer à une vaste gamme de véhicules, ce qui peut s’avérer très utile. Seul hic : en mode opérationnel autonome, l’arme en question fait mal la différence entre les combattants ennemis et les combattants amis.
  • Anders Sandberg, chercheur à la Oxford University rapporte le cas d’un prototype de robot d’entrepôt que l’on avait programmé pour jeter des boîtes dans une chute. Or l’engin avait trouvé une manière plus « efficace » d’accomplir sa mission : il avait bloqué la caméra des humains qui le surveillaient et l’interrompaient à l’occasion dans son travail. Bel effet d’apprentissage machine ! Comme disait Sandberg, cela peut paraître amusant, jusqu’au moment où l’on imagine ce que cela pourrait donner avec un robot lance-missiles.

On le voit, un robot n’a pas besoin d’être programmé à « mal agir » pour faire du tort !

IA, robotique et armement : une intégration lente, mais inexorable ?

N’empêche, le Secrétaire adjoint à la Défense américaine, Deputy Defense Secretary, Bob Work, est pourtant « profondément convaincu » que l’intelligence artificielle, la robotique et les équipes humains-machines vont changer non seulement la manière de faire la guerre, mais « sa nature même ».

Qualifié de « technophile » et apôtre de l’IA, Work – un des rares transfuges de l’ère Obama – a lancé un projet qui consiste à utiliser l’IA pour passer au peigne fin les données massives produites par les drones de surveillance.

Il est aussi un des plus ardents promoteurs d’une vision qui consiste à concentrer les efforts sur les réseaux et les structures de commandement et à intégrer intelligences humaines et artificielles dans un « centaure » : l’IA traite de grandes quantités de données à la vitesse de l’éclair pour y déceler les patrons (patterns), et l’humain prend la décision d’intervenir ou non. 

En 2015, près de 40 équipes provenant de 12 pays ont participé à la deuxième édition du European Rover Challenge. L’exploration spatiale est une importante source de développement en robotique. (Source : Wikimedia)

La position officielle de l’armée US

À première vue, rien de bien inquiétant, direz-vous. (C’est d’ailleurs précisément ce qui préoccupe nombre de critiques : comme nous l’avons vu, ils estiment que pendant ce temps l’ennemi enfile ses bottes de sept lieues pour mieux surprendre les USA.) Sa position, en quelques points.

  • D’abord, Work estime que les machines capables d’apprendre (Learning machines) donneront aux stratèges ce que Napoléon et Clausewitz, penseur classique de la guerre, appelaient le « coup d’œil » (en français dans le texte) – soit une vision plus claire de la situation.
  • Autre aspect essentiel de la guerre, selon Clausewitz : l’effet de surprise, justement. Or l’on n’a aucune idée de ce que préparent certains régimes. « Le fait de voir d’énormes chars russes défiler sur la Place rouge ne nous donne aucune idée de leurs capacités», explique Work : « les développements sur lesquels travaillent les autres, nous ne les découvrirons que lors d’un affrontement. Si leur intelligence artificielle dépasse la nôtre, ce sera une journée néfaste ("a bad day"). »
  • Officiellement, en ce qui concerne l’IA et les armes autonomes, le Pentagone respecte un processus rigoureux (et largement décrié comme une entrave à l’innovation) de test et d’évaluation. La raison de cette prudence affichée ? S’assurer que les machines vont faire « exactement ce que l’on veut qu’elles fassent», et qu’elles vont le faire de manière constante et prévisible. L’argument se tient, compte tenu des erreurs possibles, comme nous venons de le voir.
  • Pas question, pour le moment, d’avoir des robots autonomes qui décident de tuer, « bien que l’on puisse envisager un monde d’intelligence artificielle où cela serait possible».
  • Par contre, l’on envisage bel et bien de donner à des machines pour « mission » de frapper certaines cibles, ce qu’elles feront de manière autonome, tout en précisant qu’ils ne peuvent « décider » d’en frapper une autre faute d’avoir trouvé celle qui leur avait été assignée. La nuance est importante : reste à voir si elle sera de nature à rassurer tout le monde. (Question de taille : l’opérateur pourra-t-il annuler une mission en cours ? Oui, si l’on en croit la logique des militaires américains.)

Pour les critiques, de telles réserves reviennent à inciter les autres protagonistes à développer des machines « imprévisibles », capables de décimer des forces équipées de tels robots « semi-autonomes ».

Des déclarations du Secrétaire à la Défense américaine James Mattis laissent toutefois entendre que le haut commandement américain pourrait avoir d’autres visées : « Nous avons le temps, actuellement, de nous préparer à la guerre comme meilleur moyen de prévenir la guerre. »

Selon Mattis, la lutte contre le terrorisme a fait en sorte que l'avantage militaire des USA s’est « érodé » face à « d'autres grandes superpuissances », et il a affirmé vouloir mettre à profit « les avancées mêmes de l'industrie américaine » et profiter des « progrès actuels du secteur privé [américain] en matière d’armement ».

Voilà qui pourrait ouvrir la porte à des projets sur lesquels on sera sans doute peu bavards.

Où en sont les mentalités?

Dans toute innovation qui touche la sécurité, la réaction du public peut être un facteur décisif. Or si la campagne américaine d'élimination de talibans par des drones est loin d'avoir fait l'unanimité, elle n'a pas soulevé les passions pour autant. Il est vrai qu’il s’agissait d’engins contrôlés à distance, et non pas autonomes.

Pour le moment, les « robots autonomes tueurs » sont largement décriés, mais l’on ne peut parler d’une lame de fond.

Par ailleurs, comme nous l'avons constaté dans un article précédent, les mentalités évoluent très rapidement – peut-être beaucoup plus rapidement que l’on serait porté à le croire.

Le véhicule autonome, point de comparaison

Ici, l'on peut établir un parallèle – toutes proportions gardées, bien entendu – avec les véhicules autonomes. Les arguments en leur faveur ne manquent pas, et ils sont de taille. Ainsi, une utilisation massive des véhicules autonomes pourrait, selon les estimations de Google, réduire les accidents de la route de 90 %.

C'est pourquoi l’analyste Chunka Mai, dans un essai brillant publié dans la revue Forbes, estimait dès 2013 que la voiture autonome de Google valait des billions (des milliers de milliards) de dollars : moins de victimes, moins d'accidents, moins de pollution, gains de temps appréciables, potentiel accru d’auto-partage, etc.

Si l'on fait appel à la rationalité pure, et non aux émotions, il sera difficile de s'opposer indéfiniment à l'avènement de la voiture autonome. Même si l’argument économique ne nous convainc pas, la possibilité de faire presque disparaître une cause importante de mortalité devrait finir par s’imposer.

Lorsqu’un homme est mort au volant de sa Tesla autonome, en mai 2016, ce fut le choc. La robotique n'était donc pas parfaite et infaillible ! Pourtant, nous nous accommodons très bien des accidents – 90 %, rappelons-le – causés par l’imperfection et la faillibilité humaine. Pourquoi ? Parce que nous avons accepté cela comme le prix de la liberté (pourtant toute relative) que nous procurent nos véhicules.

Nous avons déjà noté une subtile mais nette évolution des mentalités face aux robots de sécurité. Il est clair que la présence des robots sera bientôt telle que nous verrons d’autres changements à cet égard.

Avec le temps, l’on en viendra peut-être à estimer qu’une vie perdue à cause d’une erreur humaine ne vaut pas moins qu’une vie perdue à cause d’une défaillance technique – surtout si le processus permet de sauver, au final, neuf autres vies.

Bien entendu, le fait de mettre en jeu des vies humaines dans un affrontement armé représente une tout autre frontière.

Reste à voir si les robots armés autonomes permettront des gains similaires sur le champ de bataille, quel serait le prix à payer pour les vaincus, et comment nous réagirions, collectivement, face au résultat.

Conclusion

Amitai Etzioni et Oren Etzioni estiment, eux aussi, que nous allons nous habituer progressivement – et assez rapidement – à voir des systèmes de plus en plus autonomes. En réalité, il serait difficile, aujourd'hui, de revenir à un état des choses où les armes déployées n'afficheraient aucune forme d'autonomie.

Les deux chercheurs en viennent à la conclusion qu’un objectif pragmatique serait de viser à bannir uniquement les armes entièrement autonomes et automatiques qui ne peuvent être stoppées une fois amorcées.

Leur principal argument : l'on peut difficilement s'opposer à une telle demande. Ils précisent d’ailleurs que le Pentagone inclut cette caractéristique dans les fonctionnalités de ses propres équipements.

De son côté, Bonnie Doherty estime que si nous permettons à la technologie de devancer la diplomatie, cela aura des conséquences humanitaires sérieuses et sans précédent.

La boîte de Pandore est ouverte : l'on n'arrêtera pas, selon toute vraisemblance, le développement et la fabrication de machines offensives autonomes.

Reste à voir si l’on pourra s’entendre pour au moins inclure la décision humaine dans le système.

L’apprentissage profond a donné à l’IA a acquis la capacité de nous étonner.

Ainsi les meilleurs joueurs de Go étudient aujourd’hui nombre de décisions complètement « hors normes » qu’a prises Alpha Go, le nouveau champion mondial.

Tout indique que nous ne sommes pas au bout de nos surprises.

Luis Robert, analyste