L’IA a déjà envahi les guerres
C’était il y a près de vingt ans. Vers les années 2005-2010, le monde commençait à entrevoir la guerre téléguidée. On découvrait ces jeunes militaires américains, installés dans leurs bases au Nouveau-Mexique, piloter des drones survolant l’Irak ou l’Afghanistan. Un militaire était chargé de contrôler l’engin. Parfois, un autre le secondait pour appuyer sur la gâchette. Tout cela à des milliers de kilomètres du lieu d’opération.
Cette mise en lumière de cette guerre menée à distance, impliquant des machines déjà dotées d’un haut niveau d’autonomie, avait frappé. Mais à ce moment-là, la décision de frapper était encore en grande partie prise par des humains.
Aujourd’hui, l’arrivée de systèmes d’intelligence artificielle (IA) de plus en plus puissants fait basculer les conflits dans une nouvelle dimension, où l’humain a encore moins de place qu’avant. Bien sûr, il y a eu les récentes révélations sur l’utilisation de l’IA par Israël dans la bande de Gaza: ce pays utilise un programme, baptisé «Lavender», pour déterminer des cibles, les traquer, et ensuite tenter de les éliminer. Avec non seulement une fiabilité toute relative (90% pour l’identification) mais encore l’acceptation de victimes collatérales.
Mais Israël n’est pas une exception. Depuis février, grâce à des révélations de Bloomberg, on sait que les Etats-Unis utilisent l’IA pour déterminer des cibles au Yémen, en Irak et en Syrie. Et les algorithmes utilisés dans le cadre du projet dit «Maven» l’ont été initialement grâce à l’expertise de Google, qui s’est depuis retiré du projet. Des dizaines de frappes aériennes ont été effectuées après l’analyse de données par l’IA, mais le Pentagone assurait que cette IA n’était pas utilisée par des humains pour des recommandations de tirs. Ces dernières ne sont pas encore jugées assez bonnes.
Il y a quasiment un an, une autre société américaine, Palantir, montrait, via une vidéo mise en ligne sur YouTube, comment l’IA pouvait déterminer des cibles et des moyens de l’atteindre. Et l’on sait que depuis longtemps, les systèmes de Palantir sont utilisés pour aider les Ukrainiens.
L’IA dans la guerre est donc une réalité, et d’autres révélations de ce type sont à prévoir ces prochains mois. Avec à la clé des questions vertigineuses sur la responsabilité de l’humain.
■