Close

L’intelligence artificielle pour la Défense : quel avenir pour les systèmes d’armes létaux autonomes ?

La question des systèmes d’armes létaux autonomes (SALA) est source de vifs débats, tant sur la scène politique internationale et nationale qu’au sein des opinions publiques. En juillet 2020, les députés Claude de Ganay et Fabien Gouttefarde ont présenté à l’Assemblée nationale un rapport d’information portant justement sur les SALA. Ce rapport étudie les enjeux de l’autonomisation des systèmes d’armes via des solutions basées sur l’intelligence artificielle (IA), dont les techniques ont aujourd’hui pris une place centrale dans le développement technologique et industriel de notre monde globalisé.

Pour certains, les SALA, comparés à des « robots tueurs », sont dignes de scénarios de science-fiction. D’autres sont plutôt préoccupés par les questions éthiques et juridiques qu’ils soulèvent. D’autres encore sont favorables à leur développement, considérant qu’elles répondent à la nécessité pour les forces armées de se doter de technologies efficientes dans un contexte où leurs adversaires sur le terrain sont équipés de solutions de plus en plus sophistiquées et de moins en moins scrupuleux. Si le rapport parlementaire des députés Ganay et Gouttefarde rappelle que « à ce jour, les SALA n’existent pas », il souligne aussi les multiples questions qu’ils soulèvent : cybersécurité, cadre juridique ou considérations éthiques, impacts opérationnels et industriels…

Alors que l’IA a aujourd’hui trouvé de nombreuses applications pour la Défense, les SALA restent un sujet particulièrement sensible. La France se distingue de certains de ses partenaires par une position pragmatique, qui prend en compte à la fois les enjeux éthiques et sociétaux, ainsi que les nécessités opérationnelles et stratégiques des Armées.

L’intelligence artificielle pour une défense « augmentée » ?

Identifiée comme une priorité de la défense nationale par la ministre des Armées, Florence Parly, l’intelligence artificielle (IA) est amenée à transformer toutes les activités du ministère des Armées. Plusieurs axes d’efforts prioritaires ont été définis : aide à la décision, renseignement, logistique, soutien et maintien en condition opérationnelle, combat collaboratif, robotique et cyberdéfense[1]. L’IA devrait ainsi permettre de mieux appréhender les manœuvres de l’adversaire sur le terrain, protéger les soldats, opérer des choix stratégiques ou encore optimiser les flux et les ressources. Elle devrait impacter toutes les phases d’une mission allant de l’entraînement au combat sur le terrain, en passant par la planification et la conduite des opérations.

Dans le cadre de l’entraînement des personnels militaires, l’IA peut être intégrée à des programmes de simulation pour élaborer des scénarios d’engagement et les faire évoluer en fonction des réactions des personnels entrainés. Elle pourra être associée à la réalité augmentée dans le cadre de « jeux sérieux » ou d’environnements virtuels immersifs. Ces programmes permettent ainsi de maintenir le niveau de préparation opérationnelle des armées.

En outre, l’IA peut s’avérer être un outil efficace lors de la préparation des opérations grâce à la modélisation de scénarios de combat. Elle peut assister à la planification d’une opération avant le déploiement afin de tester plusieurs options et offrir aux forces armées un éventail de possibilités en matière de scénarios de déroulement d’une opération. Ces programmes peuvent aussi permettre au soldat de mettre à jour de manière continue les plans des missions, grâce à la collecte de données en temps réel sur les forces en présence, amies ou ennemies.

L’IA constitue aussi une aide précieuse pour le traitement de masses d’informations indispensables à la prise de décision[2]. Les efforts de développement de logiciels et de programmes IA dans les Armées se concentrent notamment sur des tâches de reconnaissance automatique d’objets au sein de flux de données vidéos et photos, pour permettre aux analystes de se concentrer sur des missions qui requièrent l’analyse humaine.

En matière de cybersécurité, la possibilité de traiter de grands volumes de données offerte par l’IA permet d’automatiser la détection et l’analyse d’anomalies ou de failles de sécurité en temps réel. C’est d’ailleurs sur ce segment que porte une large partie du développement de solutions commerciales (par exemple MVISION EDR et MVISION Cloud de McAfee ou bien QRadar Advisor with Watson d’IBM). Les solutions basées sur l’IA permettent ainsi d’identifier très en amont les signaux faibles ou annonciateurs d’une cybermenace. Elles sont utilisées dans le cadre d’activités de type cyber threat intelligence pour la prévention de fuites de données, l’analyse et la caractérisation des attaques passées, la surveillance des attaquants potentiels ou les tentatives d’attribution des attaques. L’IA permet ainsi de passer d’une sécurité « réactive » à une sécurité « proactive ».

En matière de logistique et de maintien en condition opérationnelle, des solutions basées sur l’IA alimentées par les données issues des capteurs installés sur les équipements permettent de procéder à leur gestion de manière plus efficace tout en minimisant les ressources nécessaires. Dans ce domaine, le recours à l’IA permet d’anticiper les opérations d’entretien des matériels, de commander et d’installer préventivement les pièces de rechange nécessaires. En prenant en compte les contraintes des différentes parties impliquées (utilisateurs, fabricants, sous-traitants, services des Armées) et les remontées de données des plateformes ou des systèmes de gestion des flux, les systèmes d’information permettent d’optimiser la gestion logistique et d’anticiper les opérations d’entretien des matériels et donc de commander et d’installer préventivement les pièces de rechange nécessaires.

Enfin, l’IA est bien sûr intégrée aux drones semi ou totalement autonomes qui, grâce à des systèmes multi-agents servant à gérer de manière décentralisée un système dans lequel de nombreux agents interviennent, peuvent mettre en œuvre des essaims de drones. Ces derniers sont capables de se coordonner entre eux et ont pour but de submerger les systèmes défensifs adverses ou de mener des missions de renseignement et de surveillance de manière collaborative. Les solutions basées sur l’IA peuvent également permettre aux engins robotisés d’automatiser des tâches et fonctions telles que la détection et l’identification de cibles, ou bien la cartographie d’un théâtre d’opérations.

Parce qu’elle repose sur des algorithmes dont la principale valeur ajoutée est le traitement en quasi-temps réel de volumes gigantesques de données inexploitables tels quels par l’homme, l’IA peut rendre les personnels des Armées plus productifs, en leur permettant de se concentrer sur des tâches où les capacités humaines ont une plus-value incontestable. Ces systèmes de plus en plus connectés représentent néanmoins une porte d’entrée pour des acteurs malveillants cherchant par exemple à exfiltrer des données sensibles ou à prendre le contrôle de drones à distance. Le développement de solutions basées sur l’IA, pour la défense comme pour le secteur civil, implique donc de porter une attention particulière aux enjeux de cybersécurité. L’autre principale inquiétude suscitée par son développement concerne la place de l’humain dans ces dispositifs de plus en plus autonomes. C’est notamment tout l’enjeu des systèmes d’armes létaux autonomes.

Les armes automatiques, fantasme ou réalité ?

Il existe deux grands types de définitions des SALA. Les définitions extensives regroupent sous l’acronyme SALA « l’ensemble des systèmes d’armes robotisés dotés d’une capacité létale, quel que soit leur niveau d’autonomie[3] ». Elles incluent, outre les systèmes téléopérés, les systèmes automatiques et automatisés. Les définitions restrictives sont quant à elles centrées sur la notion d’autonomie, soit « la capacité pour un robot de se fixer ses propres règles et de fonctionner indépendamment d’un autre agent, qu’il s’agisse d’un être humain ou d’une autre machine[4] ». Dans leur rapport, les députés Claude de Ganay et Fabien Gouttefarde ont opté pour la définition proposée par Jean-Baptiste Jeangène Vilmer, directeur de l’Institut de recherche stratégique de l’école militaire (IRSEM), selon laquelle « les SALA sont des systèmes d’armes capables de choisir et d’engager seuls une cible, sans intervention humaine, dans un environnement changeant[5] ».

Si à l’heure actuelle « la France n’envisage pas de développer des systèmes pleinement autonomes, échappant totalement au contrôle humain dans la définition et l’exécution de sa mission[6] », elle est en revanche défavorable à une interdiction préventive de la recherche sur les armes autonomes, position adoptée par le Parlement européen. Car ces recherches devraient non seulement permettre de répondre aux questions de faisabilité technique et technologique, mais également de mieux appréhender les défis éthiques et juridiques soulevés par les SALA.

Sur le plan de la faisabilité, les inquiétudes autour de l’automatisation des systèmes d’armes létaux résident dans la capacité, ou l’incapacité, des SALA à distinguer un ennemi d’un allié et par conséquent à prendre la bonne décision et à viser un adversaire plutôt qu’un ami. Une deuxième inquiétude réside dans la sécurité des SALA, et sur la capacité de l’adversaire à les détourner et à en prendre le contrôle à distance afin de les retourner contre leur propriétaire et ses alliés. La cybersécurité des SALA est donc un enjeu majeur et devra constituer l’une des priorités des projets de recherche dans ce domaine.

En outre, seuls les pays les plus avancés technologiquement seront en mesure de développer ce type d’armement, ce qui leur donnerait un avantage militaire déterminant dans la décision de recourir à un conflit armé. Cela engendrerait une situation asymétrique qui opposerait d’un côté des machines et de l’autre des soldats.

Mais ce sont bien les enjeux éthiques et juridiques des SALA qui constituent aujourd’hui le principal frein à leur développement, et même au simple lancement de la recherche dédiée. On peut craindre par exemple que la distance physique instaurée entre le soldat et sa cible par les SALA ne « désincarne » la menace, avec le double-effet de conduire le combattant à baisser son seuil d’engagement et de le rendre plus enclin à employer la force[7]. De plus, les SALA ne sont pas non plus en mesure de faire la différence entre un ordre légal ou illégal, ni donc de prendre une décision dans le contexte d’un conflit asymétrique complexe. L’IA permet d’améliorer et d’augmenter les capacités humaines mais ne remplace pas pour autant l’intervention humaine, dont les qualités comme l’empathie et l’intuition peuvent être déterminantes au moment d’engager la force.

Par ailleurs, en cas de débordement ou d’incident tels que le décès accidentel d’un civil ou le détournement d’un SALA par un acteur malveillant, la question de la responsabilité n’est pour l’heure pas évidente. Doit-il s’agir d’une responsabilité étatique ou individuelle ? À ce stade, le droit de la maîtrise des armements n’a pas défini de règles qui permettraient d’encadrer l’utilisation ou le fonctionnement des SALA. Cependant, les utilisateurs doivent en revanche respecter les normes du droit international humanitaire en vigueur.

Les inquiétudes quant au développement des SALA peuvent également s’expliquer par un flou sémantique. En effet, il est nécessaire de distinguer le système autonome du système automatisé. Le système autonome n’a pas d’opérateur humain et dispose d’une certaine indépendance avec une possibilité de choix même limités en s’adaptant à un environnement changeant. Le système automatisé réalise et répète une action préprogrammée. Ce dernier existe déjà indépendamment du développement des SALA. Un certain nombre de systèmes existants sont présentés comme « autonomes » mais relèvent en réalité de la programmation et ne sont en rien autonomes. Il existe six niveaux d’automatisation, définis par Thierry Berthier, chercheur associé au centre de recherche des écoles de Saint-Cyr (CREC), applicables aux systèmes d’armes :

  • L0 : système armé pleinement téléopéré
  • L1 : système armé dupliquant automatiquement l’action de l’opérateur
  • L2 : système armé semi-autonome en déplacement et en détection de cibles
  • L3 : système armé autonome soumis à autorisation de tir
  • L4 : système armé autonome sous tutelle humaine
  • L5 : système armé autonome sans tutelle humaine

Les niveaux entre L0 et L2 sont des technologies globalement bien maîtrisées par l’ensemble des puissances militaires, voire des acteurs non étatiques. Les niveaux au-delà du L2 se situent à l’état de l’art des progrès en IA et en robotique et s’appliquent à des démonstrateurs développés dans le cadre de recherches. D’importants progrès ont été réalisés jusqu’au L4, tandis que les SALA correspondraient au dernier niveau[8]. La question de l’autonomie doit être abordée sous l’angle des différents modules fonctionnels qui composent les systèmes d’armes, le développement de leur autonomie générale se faisant par paliers fonctionnels.

Puisque la capacité d’un système à évoluer dans un environnement ouvert et complexe à l’instar de l’Homme ne fait pas de lui un système intelligent ou autonome, l’application de l’IA se limite aujourd’hui à des fonctions de « soutien » des forces armées. Mais le progrès technologique et l’apparition de solutions d’autonomisation plus fiables d’une part, et de nouvelles menaces d’autre part, pourrait relancer le débat sur les SALA.  L’apparition des SALA devrait être graduelle à mesure de l’apparition de nouvelles menaces. Cependant sur le plan offensif, la délégation à un système autonome d’une fonction létale sera plus limitée.  La position de la France, quant à elle, repose sur trois principes définis dans la stratégie du ministère des Armées sur l’IA : le respect du droit international et du droit international humanitaire, une interaction homme-machine permettant de superviser et de contrôler tout système d’arme, et la permanence de la responsabilité du commandement humain, seul responsable légitime pour définir et valider les règles de fonctionnement, d’emploi et d’engagement.

Les technologies de l’IA font l’objet d’une véritable « course à l’armement ». Aujourd’hui les États-Unis, la Chine et la Russie sont les plus actifs dans cette quête de suprématie technologique. Les progrès accomplis dans les domaines des algorithmes d’apprentissage automatique, des quantités de données disponibles, des capacités de stockage et des puissances de calcul constituent un « virage technologique » que la France ne peut se permettre de manquer, au risque de prendre le même retard stratégique et opérationnel que celui pris en matière de drones aériens. Bien qu’elle n’ait pas les moyens financiers de pays tels que les États-Unis, sa BITD, ainsi que ses capacités techniques et de recherche font de la France un compétiteur de taille.

En l’état, la réticence européenne à lancer la recherche sur les SALA pourrait conduire l’Europe à se voir dépassée sur les plans technologique, industriel et stratégique, face à des acteurs qui poursuivraient leurs efforts de recherche. De plus, le refus de développer de tels systèmes fait courir à l’Europe le risque d’un décalage avec la réalité des enjeux opérationnels et de la menace militaire[9]. Ainsi, au lieu de se prémunir contre la menace en anticipant les défis de demain, l’Europe prend le risque de se voir, dans quelques années, obligée d’agir en réaction et de développer des systèmes « dans l’urgence ».

Dans leur rapport, les députés Claude de Ganay et Fabien Gouttefarde invitent à s’appuyer sur le dialogue franco-allemand afin de parvenir à l’émergence d’une position européenne réaliste et pragmatique, permettant d’écarter tout risque d’un déclassement stratégique, technologique et industriel. Ils invitent également le gouvernement français à soutenir les engagements financiers nationaux et européens en faveur du développement de l’IA de Défense notamment dans le cadre du Fonds européen de Défense. Selon les rapporteurs, être opposés au développement de systèmes d’armes létaux pleinement autonomes ne doit conduire ni la France, ni l’Europe à se lier les mains en matière d’IA de Défense. Il faut encourager le soutien aux projets de recherche en matière de robotique et d’autonomie, au risque d’un déclassement stratégique.

 

[1] « Florence Parly présente son plan en faveur de l’intelligence artificielle, axe d’innovation majeur du ministère des Armées », ministère des Armées [En ligne], 22 mars 2018

[2] Alex Hillman, « No, AI and Big Data Are Not Going to Win the Next Great Power Competition », The Defense Post [En ligne], 18 août 2020

[3] Claude de Ganay et Fabien Gouttefarde, « Mission d’information sur les systèmes d’armes létaux autonomes », Assemblée nationale [En ligne] 22 juillet 2020

[4] Ibid.

[5] Ibid.

[6] « L’Intelligence Artificielle au service de la Défense », ministère des Armées [En ligne], septembre 2019

[7] Romain Pinchon, « Droit international humanitaire Droit de l’Homme, Encadrement juridique des “Robots tueurs” : enjeux et perspectives », UNOG [En ligne].

[8] Claude de Ganay et Fabien Gouttefarde, « Mission d’information sur les systèmes d’armes létaux autonomes », Assemblée nationale [En ligne] 22 juillet 2020

[9] Patrick Bezombes, « Intelligence artificielle et robots militaires », Areion24 News [En ligne], 1er janvier 2020