Intervention de le général Patrick Perrot

Réunion du mercredi 2 février 2022 à 9h00
Commission de la défense nationale et des forces armées

le général Patrick Perrot, chargé de mission au service de la transformation :

J'interviendrai sur un sujet à la fois très spécifique et fondamental, celui de l'IA, notamment dans le domaine de l'innovation. « Le futur dès à présent », plus qu'un slogan, est un objectif affirmé dans le cadre du plan stratégique voulu par notre directeur général. Il s'agit donc bien de préparer l'institution aux enjeux de demain, avec pour objectif de mieux protéger la population, tant sur le plan individuel que sur le plan collectif. Nous pensons que l'IA est particulièrement adaptée à cette ambition grâce à ses capacités d'adaptation et d'anticipation.

Quels sont les enjeux de demain ? Le premier est un enjeu de souveraineté. Il faut dès aujourd'hui se poser la question de la gouvernance des nouveaux territoires numériques, c'est-à-dire des territoires connectés, des mondes réels ainsi que des métavers, ou mondes virtuels, mus par l'IA. La question de la souveraineté en matière de sécurité de ces différents espaces est primordiale, dans la mesure où l'on constate une mainmise des géants du numériques – GAFA et BATX – sur ceux-ci. Quelle place la gendarmerie nationale occupe-t-elle au sein de ces territoires ?

Le deuxième enjeu est celui de la protection de la population. Comment faire face, aujourd'hui, à une délinquance de plus en plus déhiérarchisée, mais surtout de plus en plus équipée technologiquement ? Cette dernière possède actuellement les moyens d'agir à moindre risque mais à coût maximum. Ces observations concernent la criminalité organisée, le terrorisme, mais aussi la délinquance de droit commun, grâce aux outils désormais à sa portée.

Le troisième enjeu est celui du service à l'usager. Comment la gendarmerie peut-elle aujourd'hui apporter un service égal à l'ensemble de nos concitoyens, où qu'ils se trouvent sur le territoire ? Cela pose la question de l'accessibilité au service, de la redevabilité vis-à-vis du citoyen ainsi que de l'égalité du service rendu.

Pour faire face à ces enjeux, nous avons choisi de considérer l'IA non pas comme une discipline informatique – ce qu'elle n'est d'ailleurs pas – mais comme un vecteur de transformation de notre offre de protection de la population et de nos processus métiers. Nous avons adopté à cet effet une stratégie plurielle « à 360 degrés » reposant sur un certain nombre de piliers.

Le premier d'entre eux est celui de la formation, dans la mesure où il n'existe pas d'IA sans connaissances. C'est à ce titre que notre institution recrute aujourd'hui de nombreux scientifiques. La formation permet d'éviter tout effet de boîte noire et de mieux appréhender l'IA comme une aide à la décision. Il s'agit de former nos cadres de demain à décider avec l'apport de l'IA et surtout, à savoir ne pas abandonner leur pouvoir de décision. En effet, le problème ne vient pas de la machine, mais plutôt de l'humain, qui pourrait abandonner ce pouvoir décisionnel comme nous le faisons quotidiennement, pour prendre un exemple concret, lorsque nous utilisons notre GPS. Cette situation est anodine et ne porte pas à conséquence, ce qui n'est pas le cas des prises de décisions opérationnelles, tactiques ou stratégiques, où les effets peuvent s'avérer bien plus graves. La formation assure en outre l'aspect non-discriminatoire de l'IA, qui est quant à elle par définition discriminante. Notre formation s'échelonne à trois niveaux. Il s'agit tout d'abord de l'acculturation. 87 % de nos gendarmes, soit un chiffre considérable, ont suivi le MOOC « Objectif IA » d'OpenClassrooms. Pour compléter ce MOOC, qui se veut généraliste, nous produisons, à un rythme bimestriel, une revue d'une dizaine de pages intitulée Culture IA, ayant pour vocation de poser les bases de l'IA dans le domaine de la sécurité intérieure (questions de reconnaissance spatiale, de reconnaissance du locuteur, d'analyses prédictives, etc.), mais aussi d'informer de façon plus générique sur l'IA. Le deuxième étage est celui de la sensibilisation à l'information. Dès la formation initiale, nous construisons une offre, d'une durée de deux à quatre heures, pour sensibiliser nos gendarmes à l'IA et tout au long de leur carrière, des points de rappel sont proposés selon des cadences régulières. Le troisième étage est celui de la formation à proprement parler, à deux niveaux. Les officiers, à mi-carrière, ont la possibilité d'effectuer une scolarité alternative et de se spécialiser en IA. Récemment, nous avons créé, avec l'Institut supérieur d'électronique de Paris (ISEP), une chaire « IA et Sécurité ». Nous proposons ainsi des parcours doctoraux à certains de nos officiers.

Le deuxième pilier est celui de la recherche, puisqu'il convient d'avoir un temps d'avance sur l'adversaire afin de pouvoir faire face à une délinquance de plus en plus technologique. Nous collaborons avec des centres de recherche, par exemple le Centre d'études des radicalisations et de leurs traitements (CERT) de l'Université de Paris, avec l'Artificial and Natural Intelligence Toulouse Institute (ANITI) et avec l'Institut interdisciplinaire de 3IA Côte d'Azur, sur la chaire smart city et philosophie. Nous publions certains de nos travaux dans des revues scientifiques mais également dans des revues destinées à l'ensemble des citoyens afin de leur expliquer ce que nous faisons, dans un souci de transparence. Nous participons par ailleurs à des projets européens et depuis peu, nous avons accès au supercalculateur Jean Zay.

Le troisième pilier est celui du développement, qui doit prévenir l'effet boîte noire : nous devons maîtriser les outils que nous allons utiliser. Cela ne signifie pas que nous ne choisissons pas de solutions commerciales mais, le cas échéant, nous saurons comment celles-ci fonctionnent. Le développement que nous avons conduit jusqu'ici se situe dans le domaine de l'analyse prédictive de la délinquance à des fins de prévention, qui nous apporte plus de transparence vis-à-vis des autorités administratives et judiciaires, des élus ainsi que des citoyens. Nous travaillons par ailleurs à l'analyse des relations entre entités au sein des réseaux criminels de façon à mieux contrôler le rôle de chacun. Nous travaillons sur les problématiques de discrimination dans le domaine de la reconnaissance faciale. Nous travaillons encore sur l'authentification des deepfakes, hypertrucages très à la mode qui reposent sur des réseaux génératifs adverses et qui envahissent notre quotidien. Nous travaillons à la synthèse automatique de textes ainsi qu'au vieillissement et au rajeunissement des individus dans le domaine de la police judiciaire. Nous avons également fait l'acquisition d'un chatbot dédié aux ressources humaines et nous en concevons de nouveaux.

Le quatrième pilier est celui de l'éthique et de la régulation. L'usage éthique de l'AI dans le domaine de la sécurité intérieure représente selon moi une condition primaire. Nous en avons regroupé les éléments essentiels au sein d'une charte : confiance, responsabilité, loyauté, respect et transparence. Cela nécessite également d'évaluer nos systèmes à partir du cadre éthique élaboré. Nous participons à des projets européens sur l'éthique des algorithmes ainsi qu'au projet de réglementation européen de l'IA.

Le cinquième pilier est celui des partenariats. L'IA demande à être challengée et comparée entre experts. Nous disposons de conventions avec le CNRS, le Commissariat à l'énergie atomique et aux énergies alternatives (CEA), le Conservatoire national des arts et métiers (CNAM) et la Conférence des grandes écoles (CGE). Par ailleurs, nous entretenons des liens étroits avec des think tanks tels que l'Institut EuropIA, avec Sophia Antipolis, qui s'est fixé pour mission de rendre l'IA accessible à tous, avec le hub France IA, dans le domaine de l'IA et des ressources humaines ainsi que de l'IA et des territoires, avec l'Institut Sapiens, sur les enjeux éthiques, et avec l'AID, où deux de nos officiers sont actuellement affectés. Récemment, nous avons entrepris une collaboration avec l'éducation nationale afin d'expliquer nos actions en matière d'IA.

Le sixième pilier est celui de l'organisation et du management. L'IA doit ainsi non seulement servir à la population, mais aussi venir faciliter le travail du gendarme. Cela se traduit par l'utilisation du chatbot, que nous avons déjà évoqué, dans le but d'intégrer davantage d'humain dans le parcours de carrière de nos personnels, en libérant du temps pour nos gestionnaires de sorte qu'ils puissent s'engager plus profondément dans les entretiens et mieux examiner les dossiers. Par ailleurs, le chatbot répond à l'ensemble des questions qui peuvent être posées, vingt-quatre heures sur vingt-quatre, ce qui est cohérent avec les horaires décalés du gendarme. La gestion prévisionnelle des emplois et des carrières représente un autre aspect de management. L'IA doit ainsi permettre à chacun de s'approprier davantage son parcours, en termes de formation et d'évolution.

La vision stratégique que nous portons correspond à la vision européenne, puisque nous sommes co-présidents du groupe lié à la stratégie en matière d'IA au niveau européen.

Je conclurai par une phrase empruntée à Marie Curie : « Rien n'est à craindre, tout est à comprendre. » Il ne faut pas avoir peur de l'IA dans la mesure où cette discipline nous offre des opportunités considérables que nous devons saisir au lieu de céder l'avantage à l'adversaire, pour avancer et préparer les enjeux de demain.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.