Une réflexion dont vous excuserez qu'elle ne soit peut-être pas tout à fait politiquement correcte : à chaque fois que l'on a inventé un système d'armes, on s'est interrogé sur la moralité de son emploi. Tel a été le cas, par exemple, dès l'invention du fusil à poudre noire, dont on n'admettait alors qu'il ne pouvait guère être employé d'une façon conforme tant aux codes nobles de l'honneur au combat que pour effrayer les chevaux… On sait ce qu'il en est aujourd'hui, où les fusils les plus rapides tirent 1 000 coups par minute. Aujourd'hui, alors que de nouveaux systèmes d'armes sont concevables, on se pose de nouveau les mêmes questions de moralité.
Et, de nouveau, les faits sont les mêmes : à la guerre, l'ascendant tient à la vitesse d'exécution des ordres, et l'intelligence artificielle sera déterminante pour celle-ci. Avec notre collègue Thomas Gassilloud, nous l'avions déjà souligné dans le rapport que nous vous avons présenté sur les enjeux de la numérisation des armées, s'agissant par exemple du lancement de leurres par le Rafale. En effet, le lancement de ces leurres est d'ores et déjà automatique, et c'est bien normal : quand un missile est tiré vers l'avion, le salut tient à la rapidité avec laquelle on détecte la menace et l'on lance ces leurres ; or il est évident que la machine est plus rapide pour ce faire que ne l'est le cerveau humain.
Les mêmes causes produisant les mêmes effets, si l'état des techniques permet de lancer non seulement des leurres, mais aussi un missile visant l'agresseur, ne nous trompons pas : on le fera !
Il en va de même des systèmes plus ou moins autonomes : est-ce souhaitable ? Assurément non. Mais est-ce évitable ? Hélas, pas non plus, car qui s'en priverait perdrait le combat. Il ne s'agit pas seulement d'un enjeu industriel mais tout simplement stratégique et opérationnel. Est-ce dangereux pour l'humanité ? La question est d'ordre plus philosophique, mais gardons à l'esprit que tout dépendra de la façon dont la machine est programmée par l'humain. D'ailleurs, dans le fond, si la machine est véritablement intelligente, peut-être sera-t-elle-même moins dangereuse que l'humain, dont notre collègue Jean-Michel Jacques nous rappelait fort justement que son intelligence ne l'empêche pas de faire la guerre pour se détruire…