mercredi 29 juillet 2020

Ciblage : les intelligences artificielles arrivent…


Les développements de l’Intelligence Artificielle (IA) sont relativement difficiles à cerner. Produit logiciel, l’IA est d’autant plus abstraite qu’assez peu d’applications militaires font effectivement appel à ses formes plus ou moins fortes. Or, ces derniers mois, sont apparues deux évolutions rendant l’IA un peu plus concrète, en France comme en Israël, au profit direct de systèmes d’armes. S’il n’est pas encore question de « robots tueurs », on peut constater que les IA permettent au combattant d’être plus efficace.......Détails.......


Repérer une cible plus vite

Le prix Ingénieur général Chanson 2019 a ainsi été décerné, début juillet, à une équipe issue de MBDA, de la start-up Kalray, de la DGA et de la STAT (Section Technique de l’Armée de Terre). 
Elle a travaillé sur le système 2ACI (Acquisition Automatique de Cibles par Imagerie). L’objectif est de coupler, en temps réel, des capteurs et une capacité de traitement informatique incluant des algorithmes utilisant le deep learning. Il s’agit donc de s’appuyer sur la capacité de l’algorithme à apprendre à reconnaître des formes en fonction des bases de données d’images l’ayant nourri (1). 
L’ensemble facilite la détection, la reconnaissance et l’identification d’une cible, qu’elle soit fixe ou mobile, en temps réel. In fine, l’effet militaire est bien réel : une fois intégré à SCORPION ou au lanceur de missiles MMP, le 2ACI permet d’épauler directement les combattants. En fonction des capacités fournies par le système, ces derniers peuvent ainsi détecter ce qu’ils n’auraient pas vu d’eux-mêmes, mais, surtout, gagner les quelques secondes qui font souvent la différence dans des combats antichars.
Ce type de rationalité a déjà été développé par ailleurs, avec une utilisation d’IA moindre. La firme israélienne General Robotics a ainsi conçu la tourelle téléopérée Pitbull, d’une masse de 50 kg, qui peut, notamment, équiper le gros robot RoBattle LR3 d’IAI (2). 
La mission type de ce tandem est alors l’ouverture d’itinéraires en environnement urbain, ou encore la reconnaissance. 
L’originalité du Pitbull découle de son mode de ciblage : l’industriel a délibérément écarté la localisation acoustique de tirs – que l’on retrouve intégrée à SCORPION, par exemple – pour une localisation optique des flashs des départs de coups adverses. 
La solution est ainsi, théoriquement, plus précise, d’autant plus qu’elle peut être couplée, comme c’était le cas sur le salon du Bourget, à un petit radar millimétrique d’Elta. 
In fine, la localisation précise permet d’aligner automatiquement l’arme en site et en azimut en direction de la source des tirs, en moins d’une seconde. L’alignement concerne également une caméra devant zoomer sur la zone de départ du tir. 
Ce sera ensuite à l’opérateur du robot d’autoriser ou non le tir, le fonctionnement du système permettant de gagner un temps précieux et de préparer la frappe de manière optimale. Les capteurs comprennent aussi une visualisation infrarouge, de sorte que le système est capable de fonctionner de jour comme de nuit.
Le couplage au radar millimétrique apporte par ailleurs au combattant une meilleure vision de la situation dans des conditions de pluie, de brouillard ou encore de fumée et de poussière. 
Il permet également de détecter des mouvements très lents de personnes, l’opérateur pouvant ensuite activer ses systèmes optiques et infrarouge afin de confirmer une présence et, le cas échéant, de procéder à une identification positive avant un éventuel tir. 
Selon l’industriel, il serait possible d’automatiser la séquence détection-tir, mais l’option ne paraît pas pertinente, pour deux raisons. 
D’une part, parce que les tests effectués ont révélé que le système pouvait être leurré dans certains cas, même si les algorithmes de reconnaissance d’une signature de tir sont évolués. 
D’autre part, plus classiquement, parce que la demande militaire pour un système autocontrôlé en environnement urbain n’existe pas : à la moindre bavure, toute la légitimité d’une opération s’effondrerait. En revanche, l’option n’est pas totalement écartée par l’industriel dans une optique de riposte à une embuscade, où les risques de tirs contre des civils ou des forces amies sont inexistants. 
Le Pitbull a par ailleurs été conçu comme un système en soi, ne requérant qu’une fixation par quatre vis et le passage des câbles pour l’adapter à n’importe quel véhicule léger.

Des IA pour les munitions d’aviation

L’utilisation de l’apprentissage statistique et le deep learning ont d’autres conséquences en matière de détection/classification de cibles – notamment dans le secteur de l’armement d’aviation. Au cours du dernier salon du Bourget, la firme israélienne Rafael a ainsi présenté sa bombe planante SPICE‑250 (Smart, Precise Impact, Cost-­Effective). 
D’une portée pouvant aller jusqu’à 100 km et ayant une charge explosive de 75 kg, l’arme compare, en phase terminale, ce qu’elle observe grâce à ses capteurs TV et à son imageur infrarouge avec une base de données embarquée comprenant jusqu’à 300 cibles modélisées en 3D. 
Elle offre ainsi une capacité de reconnaissance automatique de la cible qui lui a été désignée, laquelle peut se doubler d’une acquisition automatique. Si jamais la cible principale n’était pas trouvée, l’arme peut être programmée pour attaquer une cible secondaire, également en mémoire. 
Déjà utilisée en Syrie contre des PC mobiles de drones, elle permet en outre de se passer du GPS en phase terminale (soit là où un brouillage peut être le plus efficace, sachant qu’elle dispose aussi d’une centrale inertielle pour son vol de croisière) et peut transmettre des images jusqu’aux derniers instants avant l’impact, fournissant une Battle Damage Indication (BDI), via une liaison de données à deux voies.
On note que l’industriel, qui évoquait déjà l’armement au cours de l’édition 2017 du Bourget, parlait alors de « pixel targeting » (3), un argumentaire qu’il a abandonné en 2019 pour être le premier à officiellement affirmer l’intégration d’une IA dans un système d’armes. 
Toutefois, l’homme n’est pas évincé de la boucle décisionnelle. On n’est donc pas dans le fantasme du « robot tueur » autonome quant aux cibles qui seront choisies ou même engagées. 
L’homme reste bien « dans » la boucle ; au pire peut-il se retrouver « sur » celle-ci. De facto, ce n’est que la conséquence logique du caractère de la guerre elle-même. Une logique d’automatisation poussée peut être envisageable une fois des kill boxes définies, dans le cas d’un combat de haute intensité dans le désert ou en plaine par exemple.
C’est, dès les années 1990, ce qui avait été fait pour un des modes d’engagement du missile air-sol Brimstone – du moins pour ce qui concerne la destruction de véhicules, en se fondant sur une détection par radar millimétrique. Mais ce type de rationalité est nettement plus délicate dans des environnements urbains ou, à tout le moins, habités. C’est d’autant plus le cas durant les opérations contre-­irrégulières.
On note également que ces armements, qui seront au cœur de la prochaine génération d’appareils de combat et d’opérations terrestres, imposent aux combattants de modifier la manière dont ils sélectionnent leurs cibles ou encore dont ils utilisent les munitions comme capteurs déportés. 
La pleine exploitation de leurs capacités dépendra donc aussi de la façon dont elles seront intégrées à l’environnement de conscience situationnelle des soldats et des pilotes. C’est même la première des conditions pour que ces systèmes puissent être les game changers que les armées attendent. 
Il ne s’agit ainsi pas uniquement de mieux détecter, mais aussi de détecter (et de frapper) plus vite, créant les effets de compensation technologiques à la perte de masse attendue. 
Il reste donc à voir comment ces munitions évolueront dans des systèmes de forces plus larges. Ils imposent par ailleurs un effort en renseignement plus diversifié. Si le renseignement est une priorité pour bon nombre d’armées, la reconnaissance optronique par IA interposée nécessitera de nourrir des bibliothèques de représentation de cibles de plus en plus volumineuses, voire de plus en plus précises. 
De facto, une reconnaissance optronique pose, plus encore qu’avec le traditionnel tandem pods/œil humain, la question du leurrage, dans le visible, mais aussi dans l’infrarouge. Il s’agira également d’assurer la sécurité de ces bases de données. 
Un ennemi entrant dans une bibliothèque pour remplacer la modélisation 3D d’un T‑72B3 par celle d’un Leopard 2A6 ou d’un Leclerc, ou plus simplement pour altérer les modèles de cibles, bloque littéralement le fonctionnement des armements. 
On le voit donc, si les IA progressent, leur mise en œuvre effective nécessitera bien plus que leurs seuls algorithmes.

Les pods aussi

Au demeurant, les IA utilisées en appui du ciblage sont également appelées à investir le domaine des pods de désignation. Si on ne sait pas encore si ce sera le cas avec l’EOTS équipant à demeure le F‑35 américain, cela l’est déjà avec le TALIOS (Targeting Long-­range Identification Optronic System). 
Qualifié sur Rafale F3R en novembre 2018 et remplaçant du Damoclès, le TALIOS dispose d’une capacité de détection et de reconnaissance automatique de cible. 
La représentation de la situation tactique aux équipages est donc facilitée. Au passage, le pod n’a pas uniquement une fonction classique de désignation de cible : c’est aussi un capteur dont les informations peuvent profiter, grâce à des systèmes comme ROVER, aux forces terrestres, nourrissant les réseaux de partage de données. 
Il est également considéré comme pouvant effectuer des missions de reconnaissance. Qu’il soit utilisé en surveillance ou en reconnaissance, l’aptitude à distinguer et classer des contacts – hostiles, amis ou neutres – facilite le travail d’analyse.
Ce sont donc autant de capacités qui seront utiles non seulement au standard F4 du Rafale, mais aussi au SCAF, à SCORPION ou encore à la veille collaborative navale. 
Au passage, on note que ces systèmes dépendent largement des capacités de renseignement, pour la mise à jour des bases de données et des bibliothèques de menaces qui alimenteront les algorithmes. 
Si l’on ne connaît pas les capacités exactes de l’IA de reconnaissance automatique utilisée sur le TALIOS, la nature même de ces logiciels les rend évolutifs : leur apprentissage ne dépend guère que des informations auxquelles ils peuvent se confronter. 
Pour peu évidemment que leurs besoins premiers – soit l’énergie, le refroidissement et la capacité de calcul – soient satisfaits.

Notes

(1) Pour une vision plus large des applications de l’IA aux opérations contemporaines, voir notre hors-série no 65, publié en partenariat avec le CREC Saint-Cyr, avril-mai 2019.
(2) Voir notamment Philippe Langloit, « Robotique de combat : les progrès viennent des petits États », Défense & Sécurité Internationale, no 125, septembre-octobre 2016.
(3) Philippe Langloit, « L’évolution de l’aviation militaire à l’aune du Bourget 2017 », Défense & Sécurité Internationale, no 131, septembre-octobre 2017.

Source Areion 24 News
Vous nous aimez, prouvez-le....


Suivez-nous sur FaceBook ici:
Suivez nous sur Facebook... 
Sommaire
 Vous avez un business ?