Jeudi 18 juillet 2019
- Présidence de M. Gérard Longuet, sénateur, président de l'Office -
La réunion est ouverte à 9 h 15.
Examen de notes scientifiques (reconnaissance faciale, ordinateur et informatique quantiques, cryptographie quantique et post-quantique, politique vaccinale)
Ê Examen d'une note scientifique sur la reconnaissance faciale (Didier Baichère, rapporteur).
– Didier Baichère va nous présenter son projet de note scientifique sur la reconnaissance faciale, sujet passionnant qui recoupe le travail de la commission d'enquête du Sénat sur la souveraineté numérique, dont je suis le rapporteur. L'identité fait en effet partie de la souveraineté de l'État, puisque ce sont les États qui, jusqu'à présent, la distribuaient et qui peuvent désormais en être d'une certaine façon dépossédés par des dispositifs tels que la reconnaissance faciale.
– J'ai abordé le sujet de la reconnaissance faciale lors de la préparation de la première note scientifique de l'Office qui traitait des objets connectés, j'avais alors pensé que ce thème pourrait faire l'objet d'une autre note scientifique. Le travail préparatoire de cette dernière a duré un peu moins de quatre mois, qui m'ont permis de découvrir un sujet que je ne connaissais pas et d'auditionner les acteurs du domaine, notamment le secrétaire d'État au numérique, Cédric O, le coordonnateur interministériel pour l'intelligence artificielle (IA), des représentants des ministères de l'intérieur et des armées – étant rappelé que je suis pour ma part membre de la commission de la défense nationale –, les représentants de la CNIL, de l'Association des maires de France (AMF) mais également une bonne partie de l'« écosystème » industriel avec en particulier des représentants d'IDEMIA, de Microsoft, d'Amazon, de Qwant et de Google, ainsi que, enfin, des chercheurs en informatique, en sciences sociales et en droit.
Le projet de note qui vous a été distribué et transmis avant-hier présente trois aspects de la reconnaissance faciale que je voudrais évoquer ici : une brève description historique et un état des lieux technologique, une présentation des enjeux légaux, enfin, un point sur les questions éthiques relatives à ces dispositifs. Cette note trouve par ailleurs tout à fait sa place dans l'actualité, de nombreux articles de presse traitant régulièrement de cette question, souvent accompagnée de méconnaissances, la science-fiction et la réalité étant généralement mêlées en ce qui concerne ces technologies.
La vision par ordinateur a vu le jour dans les années 1970 avant de connaître un véritable essor dans la décennie suivante. Comme pour les objets connectés, c'est l'industrie qui a la première utilisé ces dispositifs : quand on parle d'objets connectés, on pense généralement aux montres ou aux enceintes, mais il s'agissait à l'origine plutôt d'applications industrielles. Aujourd'hui, s'agissant de la reconnaissance faciale, il faut distinguer de mon point de vue deux choses : l'authentification – qui permet de comparer l'identité d'une personne avec ce qu'elle prétend être, l'exemple le plus marquant étant le dispositif Parafe qui permet de passer les frontières dans les aéroports et pour lequel aucune donnée n'est conservée –, et l'identification – qui vise à reconnaître dans une foule une personne en la comparant à une base d'images, ce qui peut être mis en place par exemple avec des personnes volontaires comme lors de l'expérimentation au carnaval de Nice en février dernier ou par des entreprises au sein de leurs locaux. Ces deux types d'applications sont souvent confondus, ce qui peut faire naître certains fantasmes, bien qu'ils ne soulèvent pas les mêmes enjeux. De plus, les performances de ces deux types de dispositifs ne sont pas identiques : les dispositifs d'authentification peuvent avoir des taux de reconnaissance supérieurs à 99,5 % contrairement aux dispositifs d'identification qui en sont encore loin. Plusieurs études dont une du Massachusetts Institute of Technology (MIT), ont montré que les dispositifs de reconnaissance faciale présentaient des biais puisque les hommes blancs sont systématiquement mieux reconnus que les femmes noires par exemple. La raison tient à ce que ces dispositifs sont développés en les « entraînant » sur des bases d'images qui manquent de diversité.
Il faut, de plus, bien avoir à l'esprit que ces outils ont pour objet de donner des indications de correspondance entre deux images. Pour ce faire, il est nécessaire de fixer un seuil de correspondance au-delà duquel deux images sont supposées pouvoir représenter la même personne. La définition de ce seuil dépend bien évidemment du degré de fiabilité attendu et des usages faits de ces outils, la reconnaissance d'un client fidélisé ne nécessitant bien évidemment pas les mêmes performances que la détection d'un individu recherché. Les usages de ces dispositifs sont en effet multiples : des entreprises de transport comme le groupe ADP ou la SNCF veulent utiliser des portiques munis de dispositifs de reconnaissance faciale afin de fluidifier les flux de passagers dans les aéroports ou les gares ; d'autres pourraient vouloir cibler leur marketing ou utiliser des systèmes de paiement sophistiqués qui permettent de reconnaître une personne à son entrée dans un magasin, de détecter les produits qu'elle prend et de débiter automatiquement son compte in fine ; enfin, des collectivités territoriales expriment le souhait de coupler leurs caméras de vidéoprotection à des algorithmes de reconnaissance faciale. En la matière, l'expérimentation réalisée par la mairie de Nice fait figure de première en France. Ont ainsi été testés différents dispositifs permettant par exemple de détecter la présence d'une personne non autorisée sur un char ou de retrouver des enfants perdus. Pour cette commune de 350 000 habitants, la mairie de Nice a investi très fortement depuis 2008 dans les équipements de vidéoprotection. Elle dispose maintenant d'environ 500 agents de police municipale, dont 100 au centre de supervision urbain, et de plus de 2 000 caméras de précision, réparties dans la ville mais aussi dans les transports en commun. Ce terrain était donc propice à la mise en place de l'expérimentation évoquée, qui permet d'analyser les avantages que les collectivités territoriales pourraient tirer de ces technologies.
Les dispositions légales qui encadrent l'utilisation de ces outils dépendent des usages qui en seront faits. Tout d'abord, la directive européenne dite « PoliceJustice » [Directive (UE) 2016680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l'égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d'enquêtes et de poursuites en la matière ou d'exécution de sanctions pénales, et à la libre circulation de ces données (…)] est applicable aux traitements réalisés pour le compte de l'État dans le cadre de l'exercice de ses prérogatives de puissance publique. Ces traitements nécessitent en France un décret pris en Conseil d'État après avis de la CNIL. Pour le moment, le seul fichier de police judiciaire qui le permet est le traitement des antécédents judiciaires (TAJ). L'extension à d'autres fichiers nécessiterait un autre décret pris en Conseil d'État.
Pour les autres utilisations, c'est le règlement (UE) 2016679 du Parlement européen et du Conseil dit "règlement général sur la protection des données (RGPD)" qui s'applique. Jusqu'à son entrée en vigueur, les utilisateurs devaient demander l'autorisation à la CNIL avant de pouvoir mettre en place ces traitements. Le RGPD a consacré à l'inverse la responsabilisation du responsable du traitement et de son éventuel sous-traitant, qui doivent réaliser une analyse d'impact et la communiquer à la CNIL uniquement s'ils détectent des risques résiduels élevés. Le consentement est l'un des fondements légaux mobilisables pour mettre en place ces traitements.
Ces dispositions légales ne permettent que difficilement l'expérimentation d'outils de reconnaissance faciale en conditions réelles. Or ces expérimentations sont nécessaires à la maîtrise de ces dispositifs afin de ne pas se voir imposer les solutions proposées par les géants du numérique ; elles correspondent donc à un véritable enjeu de souveraineté. Dans ces conditions, il semble primordial d'ouvrir la possibilité, par exemple dans le cadre d'une loi d'expérimentation, de mener ce type de tests. Je relève que le Comité d'organisation des Jeux Olympiques de 2020 qui auront lieu à Tokyo a annoncé que les accès des athlètes, de leurs accompagnants et des journalistes se feront à l'aide de systèmes de reconnaissance faciale. Aussi est-il nécessaire que des expérimentations puissent être menées en France afin que les cadres d'emploi soient bien maîtrisés avant les Jeux Olympiques de Paris prévus en 2024.
Les nombreux exemples qui sont apparus récemment dans la presse permettent de mettre en lumière les enjeux éthiques et sociétaux de ces dispositifs. L'utilisation à grande échelle de la reconnaissance faciale en Chine et les dérives liées au système de « crédit social » qui y est mis en place cristallisent les craintes. Il est important de noter également que l'acceptabilité sociale de ces dispositifs a progressé avec le développement des applications économiques de cette technologie. Les consommateurs, qui n'y ont tout d'abord vu qu'un moyen de gagner du temps, se sont habitués à l'utilisation de la reconnaissance faciale. Mais les exemples de diffusion de ces dispositifs sans cadre légal donnent naissance à beaucoup de craintes et de rejet. Il est donc nécessaire, comme y a publiquement appelé la CNIL à l'automne dernier, que puisse se tenir un grand débat public sur ce sujet. Récemment, le Forum économique mondial s'est associé au Conseil national du numérique pour lancer une étude de douze mois : j'ai d'ailleurs eu la chance de participer à son lancement au nom de l'Office il y a quelques semaines, pour essayer de faire l'état des lieux des expérimentations qui seront nécessaires pour avancer sur la reconnaissance faciale en Europe, en France et au niveau mondial, mais en respectant les libertés fondamentales. Cette expérimentation regroupe des partenaires comme La Poste, la SNCF, Aéroports de Paris. Ces expérimentations à grande échelle nous semblent essentielles pour construire un cadre de régulation stable qui prenne en compte les limites dont elles auront mis la nécessité en évidence.
Comme nous l'avons vu avec l'expérimentation menée à Nice, les collectivités territoriales sont amenées à être en pointe sur l'utilisation de ces dispositifs. Des métropoles comme Dijon ou Saint-Étienne avancent sur ces questions. Il y a chez elles une certaine maturité et une maîtrise suffisante des outils de vidéoprotection pour leur permettre d'envisager le déploiement de cette technologie. Il est cependant primordial que l'État fixe le cadre et ne laisse pas les maires ou les présidents de région ou de département faire des choix dont ils ne perçoivent peut-être pas suffisamment l'ensemble des implications éthiques ou juridiques.
Les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) n'ont pas tous la même position sur la question de leur responsabilité dans le développement de cette technologie. Je ne souhaite pas faire de « tri » entre les GAFAM mais Microsoft et Google ont appelé très tôt à la tenue d'un débat démocratique sur ces dispositifs et ont partagé les principes qui structurent leur stratégie dans ce domaine alors qu'Amazon considère pour sa part ne fournir que des briques technologiques et estime que la responsabilité incombe à l'intégrateur et à l'utilisateur. Il me semble que nous devons, et c'est une des recommandations sur lesquelles nous reviendrons plus tard, être extrêmement vigilants sur cette question et ne pas laisser les grands industriels fuir leur responsabilité.
Nous avons interrogé les ambassades de France dans différents pays afin d'obtenir des informations sur la façon dont ces outils étaient utilisés et traités à l'étrangers. Aux États-Unis, la reconnaissance faciale occupe depuis peu le devant de l'actualité : plusieurs villes, dont San Francisco, étudient actuellement différentes modalités d'interdiction par leurs services, alors qu'il a été montré que l'État fédéral utilise sans autorisation particulière l'ensemble des fichiers des permis de conduire pour faire de la reconnaissance faciale, ou que des habitants se battent à Brooklyn contre l'installation d'un dispositif de reconnaissance faciale dans leur immeuble privé. Au Royaume-Uni, la vidéoprotection est largement implantée depuis de nombreuses années. La police de Londres a mené plusieurs expérimentations de dispositifs de reconnaissance faciale et des outils de marketing ciblé sont déjà présents dans les bus : ils visent à identifier par exemple si, dans le bus, il y a plutôt des femmes ou des hommes, et suivant le cas, la publicité s'adapte en temps réel aux personnes qui sont présentes. Bien que la population soit habituée à ces dispositifs, des oppositions se font entendre comme dans le cas célèbre d'un homme verbalisé pour trouble à l'ordre public parce qu'il refusait de participer à une expérimentation menée par la police de Londres.
Ces exemples montrent que d'autres pays ont déjà réalisé des expérimentations qui ont fait apparaître des enjeux éthiques et que la France doit se doter d'un cadre qui lui permette de faire de même.
Pour conclure, nous avons formulé, à la suite des quatre mois qu'a duré cette étude, plusieurs recommandations que je vais maintenant vous présenter.
Tout d'abord, comme je viens de le dire, il faut élaborer rapidement un cadre législatif, qui pourrait prendre la forme d'un projet de loi d'expérimentation ou bien d'amendements parlementaires. Il s'agirait de permettre de lancer des expérimentations à plus grande échelle, c'est-à-dire d'encourager la mise en place d'un écosystème académique et industriel pour tester les technologies de reconnaissance à l'échelle d'une gare ou d'un aéroport, ou encore d'une collectivité territoriale, pour être certain que ces dispositifs soient fiables et qu'y soit intégré un volet sociologique qui permette d'en étudier les aspects éthiques.
Nous recommandons également que la CNIL puisse jouer un rôle d'accompagnement dans l'innovation et dans l'incitation à ce qu'on appelle la « privacy by design » afin que tous les dispositifs soient emprunts du respect des données personnelles, dans l'esprit de ce que fait l'Autorité de régulation des communications électroniques et des postes (ARCEP) qui a mis en place des « bacs à sable » à disposition des acteurs de l'écosystème des télécommunications pour qu'ils soient en mesure de tester des solutions, qui, le cas échéant, pourront de ce fait ne pas être retenues. Il s'agirait ainsi de confier une nouvelle mission à cette autorité de régulation.
Dans le même ordre d'idées, nous préconisons une recommandation, qui figurait dans le chapitre V du rapport de Cédric Villani sur l'intelligence artificielle, qui consiste en la création d'un corps d'experts pluridisciplinaires qui puissent auditer les dispositifs de reconnaissance faciale. Nous n'avons pas eu suffisamment de temps pour arrêter une position tranchée sur l'organisme auquel devrait être rattaché ce corps d'experts.
Comme je le disais tout à l'heure, il importe de rappeler la responsabilité de l'ensemble des acteurs : concepteurs, intégrateurs et responsables du traitement. Il faut insister sur le rôle que seront amenés à jouer à l'avenir les géants du numérique qui, malgré toutes leurs déclarations de bonne volonté, auront sans doute besoin que l'on légifère pour développer une reconnaissance faciale éthique.
Il est également indispensable que nous nous assurions que, quels que soient les dispositifs qui seront mis en place, la décision finale demeure humaine. Par exemple dans l'exemple de la ville de Nice, la décision d'intervenir lors de la recherche d'une personne disparue doit demeurer de la responsabilité d'un être humain.
Nous proposons aussi de mener des études sur l'acceptabilité sociale de ces technologies en fonction des catégories de population.
Enfin, et pour conclure, il me paraît essentiel d'améliorer la formation à l'économie de la donnée qui intervient d'ailleurs dans nombre d'autres sujets traités par l'Office. En effet nos concitoyens ne sont pas suffisamment conscients de cette économie et ne sont donc pas toujours capables de prendre des décisions éclairées. Le premier exemple qui me vient en tête est celui du pass Navigo anonyme, dont je n'ai appris l'existence que très récemment. Les gens n'ont pas forcément connaissance que ce dispositif existe et que le pass Navigo classique, même si son objectif premier n'est pas d'être en capacité de suivre l'ensemble de nos déplacements, recueille des données les concernant. Il me semble que l'on n'a pas suffisamment expliqué en quoi ces données étaient importantes et quelles étaient les possibilités de s'en affranchir. Je pense que cette formation ne doit pas intervenir à l'université ou dans les écoles d'ingénieurs, car c'est trop tard, mais très en amont, dès le CM2, au moment de la présentation des institutions et de la citoyenneté et avant que nos enfants rentrent dans la préadolescence au cours de laquelle ils vont utiliser de manière intensive toutes les nouvelles technologies. Il serait intéressant de mener cette réflexion avec le Laboratoire d'innovation de l'Éducation nationale.
Je précise enfin que la note s'appuie sur une cinquantaine de références détaillées, pour les lecteurs qui désireraient aller plus loin sur ce sujet.
– En ma qualité de président de l'Office, je remercie et félicite Didier Baichère pour son excellent travail, qui constitue un élément de l'application de l'intelligence artificielle au quotidien. Je cède la présidence à Catherine Procaccia, étant appelé comme rapporteur à une réunion de la commission d'enquête du Sénat sur la souveraineté numérique, qui recoupe le sujet de ce jour.
Présidence de Mme Catherine Procaccia, sénateur, vice-présidente de l'Office.
– Je m'étonne que vous ne vous interrogiez pas sur la pertinence de résister à ce mouvement. Vous écrivez que la généralisation semble inéluctable. Pourquoi ? On peut résister à ce Big Brother. Tant que l'on ne demande rien à personne, pourquoi irait-on vous identifier ? Vous évoquez l'utilisation de tels dispositifs par l'État dans le cadre de ses prérogatives de puissance publique. Mais l'État n'est pas là pour nous écraser ou nous ennuyer, il est là pour nous protéger, et pas spécialement par la reconnaissance faciale. Si vous rentrez dans une banque ou allez chez votre médecin, pourquoi pas, mais quand on ne demande rien d'autre que le droit de respirer librement dans la rue ou à la campagne ? Je ne vois pas pourquoi il faudrait donner aux uns ou aux autres le droit de vous reconnaître, ou, comme en Chine, de vous donner des bons ou des mauvais points parce que vous marchez trop vite, que vous êtes mal habillé ou que vous êtes déguisé en personne du sexe opposé. J'ai l'impression que vous n'abordez pas ce côté insupportable, qui n'est pas inéluctable si vous résistez.
– J'entends ce que vous dites, cher collègue. Mais je vis dans un pays asiatique où la reconnaissance faciale est partout. Si, en tant que citoyenne, je m'interroge sur le degré de liberté dont je me priverais tous les jours, la réponse est : absolument aucun. Avec les limites que notre collègue Didier Baichère a évoquées, une réflexion éthique est à mener. Cela renforce le rôle de l'État qui est de nous protéger. On est beaucoup plus efficace avec la reconnaissance faciale. Dans le nouveau terminal 4 de l'aéroport de Singapour, avec un système de reconnaissance faciale poussé, le trafic des passagers est totalement fluide. Il n'est plus besoin de s'arrêter, d'ouvrir sa valise, de se déshabiller...
– Quand vous rentrez dans un aéroport ou que vous montez dans un avion, vous demandez quelque chose. Mais quand vous ne demandez rien à personne, quand vous vous promenez dans la rue, l'anonymat est une liberté.
– Je vous rejoins tous les deux. J'ai un avis personnel, que j'essaie de dépasser dans la note scientifique que je vous présente ici. On est effectivement déjà entré dans l'ère de la reconnaissance faciale, j'ai pu en décembre dernier apprécier la fluidité de l'aéroport de Singapour. Il en va de même pour les collectivités locales, je le sais bien en tant que conseiller municipal. Une collectivité, qui a installé un système de vidéoprotection depuis des années - le cas emblématique de la ville de Nice est le plus abouti -, se pose forcément la question de la reconnaissance faciale. Pour optimiser le service rendu aux citoyens, se développent des applications qui ne sont pas de type Big Brother, mais améliorent la gestion des flux de personnes. Il en est de même dans les aéroports ou dans les grands événements sportifs. Le Royaume-Uni est entré dans la reconnaissance faciale par la question de l'accès aux stades, en croisant les images avec les fichiers des hooligans. La question se posera dans toutes les villes où il y a un grand stade, pour la sécurité de tout le monde. Pour savoir si les citoyens en ont envie, il faut impérativement établir un cadre législatif d'expérimentation large. Je suis passé vite sur les partenariats d'ADP et de la SNCF. Les premières expérimentations larges ont été faites dans une gare ferroviaire londonienne, avec des passagers volontaires, pendant plusieurs mois, pour évaluer si cela améliorait les flux et diminuait le sentiment d'insécurité. Si on ne fait pas ce genre d'expérimentations en France, on ne pourra pas en connaître les effets sur nos concitoyens. L'étude de douze mois qu'ont lancée le forum économique mondial et le conseil national du numérique est essentielle pour les mêmes raisons. Il s'agit d'analyser ce que les citoyens souhaitent ou ne souhaitent pas. Nous avons commencé à dessiner un diagramme distinguant les applications régaliennes de sécurité et les applications de la vie courante. Je rentre dans un magasin, est-ce que j'ai envie qu'on me propose un soin de beauté ou une alimentation adaptée à ma morphologie ? Les douze mois de cette étude permettront de mesurer le degré d'acceptation par les citoyens. Puis nous en tirerons des conclusions pour légiférer, notamment pour protéger les libertés individuelles. Aujourd'hui, nous n'avons pas de cadre légal pour expérimenter. Si la population rejette massivement cette technologie, nous en tirerons les conséquences et maintiendrons la législation actuelle. Sachant que la France a traditionnellement une position plutôt protectrice sur ces sujets, nos collègues européens nous poussent à aller de l'avant.
– Avec la reconnaissance faciale, la donnée existe, mais cela ne veut pas dire que quelqu'un nous observe en permanence. Personnellement, je ne me sens pas surveillée en permanence. Il est légitime de s'interroger sur la reconnaissance faciale, mais dans la vie de tous les jours, beaucoup d'autres dispositifs nous suivent à la trace : carte Vitale, carte de crédit, adresse postale... La reconnaissance faciale n'en est qu'un de plus, et il faut essayer d'en comprendre les enjeux. Mais nous ne sommes pas surveillés nuit et jour par un gardien de prison. Pour l'accès aux données, il faut revenir à la question de l'économie de la donnée.
– Nous sommes en présence d'un débat de société, qui revêt un aspect générationnel aussi peut-être. Ce qui m'inquiète, c'est que les industriels entrent dans le domaine directement par l'usage, ce qui tend à biaiser ainsi toute la réflexion. Si quelqu'un est habitué à déverrouiller plus vite son téléphone par un dispositif biométrique et qu'il n'a pas été éduqué à l'économie de la donnée, au sens le plus noble du terme, il n'est pas forcément en capacité de refuser la reconnaissance faciale. Dans un autre domaine, sur la question de la bioéthique, certaines personnes iront spontanément faire un séquençage d'ADN sur internet, où sont présentes uniquement des sociétés étrangères. Ils ne se rendent pas compte que ce faisant ils auront donné leur séquençage ADN à une entreprise américaine. Être formé à l'économie de la donnée, c'est être un citoyen éclairé, ayant conscience notamment des préjudices possibles. Je ne pense pas qu'on puisse « arrêter la machine », même si ce n'est pas à moi de le dire. Par contre il faut être éclairé.
– Il faut pouvoir conserver des espaces de liberté et bien poser la question dans la note.
– Depuis hier, j'entends beaucoup parler de l'application FaceApp. Sait-on quelle est l'utilisation faite de tous ces visages et pourquoi cette application a "explosé" dans la nuit de mardi à mercredi ?
– Je ne connais pas le cas ni qui est derrière, mais c'est le même exemple qu'avec le séquençage ADN. Sous l'angle de l'amusement, de l'usage, vous avez donné à une société votre image jeune et une image de vous plus âgé. Une base de données compile ces images, pour faire progresser la reconnaissance faciale. Vous n'êtes pas maître de vos propres données, car vous ne vous êtes pas posé la question de l'éthique, mais avez seulement vu l'aspect amusement. Vous avez donné votre photo, votre gabarit, à quelqu'un qui pourra s'en resservir.
– Soit on se défend, ce qui est la posture de la France depuis de nombreuses années, soit on souhaite un cadre d'expérimentation vaste. Lors de son audition, le ministre Cédric O a semblé d'accord pour tester ces sujets. Si la France n'est pas motrice, elle se fera imposer par l'extérieur un cadre légal européen. Nous devons expérimenter avec les chercheurs, avec les industriels, bref avec tout un écosystème à maîtriser et encourager en termes de souveraineté. Plusieurs centres d'excellence, comme Sofia Antipolis, sont capables de proposer des solutions, y compris des solutions de protection. Lors de leur audition, les dirigeants de Qwant ont indiqué que la solution qu'ils proposent aux collectivités permet de flouter les visages. Si le besoin apparaît de croiser avec un fichier, le masque peut être levé. Des solutions de protection existent, il suffit de décider de les utiliser.
– Je partage ce qui a été dit. Dans bien des situations, ces technologies ont de forts potentiels, tant bénéfiques que négatifs. Il faut s'emparer de ces technologies et les mettre en débat, il ne faut pas croire qu'en évitant le sujet elles ne s'inviteront pas d'elles-mêmes. Dans certaines situations particulières, la reconnaissance faciale sera d'une efficacité extrême, par exemple pour l'identification d'un auteur d'attentat. L'enjeu principal est le garde-fou : quel mécanisme mettre en place pour que seule la personne qui y a droit et est dans le bon contexte y ait accès ? Comme le disait Anne, un monde dans lequel tout le monde est surveillé en permanence n'est pas acceptable, mais sous réserve que la situation reste bien contrôlée, une fenêtre s'ouvre pour la reconnaissance faciale. L'Europe sera comme toujours le continent qui globalement régulera le plus. Il faut que nous soyons attentifs à la façon dont s'organisera le débat. Aux États-Unis, des expérimentations sont en cours, certaines villes ont choisi d'interdire l'usage de la reconnaissance facile, comme San Francisco, d'autres non. Un usage qui paraît inacceptable aujourd'hui pourra être acceptable demain, parce que les conditions ou les mentalités auront changé. Une question importante est celle de la conservation de l'information. Les applications comme Telegram ont un succès extraordinaire parce qu'elles garantissent une transmission d'information sans fuite, sans piratage, à l'exception peut-être de certains organismes étatiques étrangers…
– En termes de communication, c'est la messagerie sécurisée « Tchap » qui est conseillée par le Gouvernement pour l'Assemblée nationale et le Sénat, mais l'information sur ce sujet est restreinte. « Signal » semble également être mieux protégé que Telegram.
– Je remercie notre collègue pour sa présentation. Notre débat d'aujourd'hui sur la reconnaissance faciale me rappelle celui d'il y a quelques années sur les empreintes digitales. À l'époque les gens ne voulaient pas donner leurs empreintes digitales, car ils pensaient que cela pouvait être un moyen pour l'État de les confondre, dans telle ou telle situation. Si l'initiative vient de l'État, les gens ont tendance à s'y opposer systématiquement car ils perçoivent l'aspect répressif individuel mais pas forcément le côté sécuritaire de protection plus globale de la population. On l'a vu lors de l'audition publique de l'Office sur les compteurs communicants. Certains étaient opposés à ce que l'on puisse relever leurs données, alors qu'ils les laissent sur les réseaux sociaux sans s'interroger. Pour moi, la reconnaissance faciale dans le domaine sécuritaire ne pose pas de problème. Quand les gens permettent le séquençage de leur ADN, ils veulent seulement connaître leur filiation, et tant que ce n'est pas dans les mains de l'État, cela ne les gêne pas. Je suis d'accord avec l'idée qu'il faut mettre en place un dispositif permettant l'expérimentation de la reconnaissance faciale, tout en se posant les bonnes questions : comment circonscrire ces expérimentations ? Comment impliquer nos concitoyens ? On peut aussi observer que depuis des années Google ou d'autres savent flouter les gens sur les photos utilisées pour les applications de localisation. Mais il faudra trouver les mots pour convaincre nos concitoyens, c'est certain.
Je voudrais également évoquer les technologies qui permettent d'implanter des puces sur des êtres humains, pour pouvoir les identifier en cas d'infraction ou de terrorisme. Est-ce que la reconnaissance faciale est la dernière technologie à même de préserver la sécurité, n'en existe-il pas de nouvelles encore plus efficaces ?
– Nos interlocuteurs n'ont pas évoqué d'exemples d'autres technologies. Dans le cas de Parafe, le taux de certification dépasse 99,5 %. La note scientifique cite d'autres exemples avec des faux positifs. On voit bien qu'on n'a pas encore une fiabilité suffisante pour tout ce que l'on peut imaginer vouloir faire.
S'agissant de la relation aux citoyens, nous avons eu une restitution intéressante, lors d'une réunion de l'Office en juin 2018, par des membres du comité de 22 citoyens mis en place par le Comité consultatif national d'éthique. Ceux-ci nous ont expliqué comment ils avaient travaillé, alors qu'ils ne connaissaient rien au sujet de la bioéthique, autour duquel ce comité avait été créé. Nous avons en France des dispositifs permettant, à un moment déterminé, de mener une réflexion avec des industriels, des chercheurs et des citoyens. Qu'est-ce qui nous empêcherait d'engager un tel débat citoyen sur le sujet de la reconnaissance faciale ? Des sociologues donneraient ainsi leur avis sur les aspects éthiques des expérimentations. Un collège de citoyens pourrait donner son avis sur les recommandations. C'est une voie à explorer peut-être.
Nous devons maintenant décider de l'autorisation de publier la note scientifiques n° 14.
Il me semble qu'il conviendrait de faire référence, dans la note sur la reconnaissance faciale, au rapport de l'Office sur l'intelligence artificielle, publié en mars 2017.
La note pourrait-elle également évoquer la possibilité de ne pas accepter le caractère inéluctable, évoqué dans le texte, du déploiement de ces dispositifs, pour protéger les libertés individuelles ?
C'est déjà le cas.
La publication de la note scientifique n° 14 sur la reconnaissance faciale est autorisée.
Ê Examen de la note scientifique sur les technologies quantiques : l'ordinateur quantique (M. Cédric Villani, député, rapporteur)
– Il me semble que le sujet est un peu plus compliqué pour certains d'entre nous que le sujet de la reconnaissance faciale qui a été abordé par Didier Baichère mais je compte sur l'approche pédagogique de notre premier vice-président pour mettre ces notes à la portée des non scientifiques.
– Les trois notes n° 15, 16, et 18 sont la suite, ou plutôt le corps du sujet des technologies quantiques, après la note n° 13 qui en constituait une introduction générale. Ces trois nouvelles notes 15, 16 et 18 développent chacune un domaine particulièrement notable des technologies quantiques : nous examinerons ainsi successivement l'ordinateur quantique, la programmation quantique et la cryptographie quantique et post quantique.
Les termes « ordinateur quantique » font penser au hardware, au matériel qui va calculer. La programmation quantique correspond plus à la façon dont on programme un ordinateur quantique, autrement dit ce qui tiendra lieu de logiciel. Enfin, les cryptographies quantique et post-quantique concernent les protocoles de sécurisation des échanges d'informations confidentielles.
Cet ensemble de notes constituera une contribution asses complète aux travaux de la mission qui a été confiée par le gouvernement à Paula Forteza sur les technologies quantiques ; mission qui a démarré le 5 avril dernier et qui doit se conclure à la reprise de la session parlementaire. La mission de Paula Forteza poursuivra ce travail et, en particulier, fera des recommandations sur la politique du gouvernement : quels montants investir, etc…
Nous allons commencer par l'ordinateur quantique en évoquant la question de la performance des supercalculateurs actuels. Nous savons que le développement du calcul numérique a été marqué par une augmentation exponentielle des performances depuis plusieurs décennies avec la fameuse « loi de Moore ». Cette dernière peut s'exprimer suivant différents indicateurs, mais si l'on retient celui de la densité de transistors, un palier est attendu d'ici 2022.
C'est dans ce contexte que l'ordinateur quantique apparaît comme une solution ambitieuse, prenant le relais des technologies classiques, qui sont en train d'atteindre leurs limites.
Un ordinateur quantique est presque entièrement différent d'un ordinateur classique, et ce dès son unité élémentaire de fonctionnement : pour un ordinateur classique, l'unité élémentaire est le bit, qui peut prendre soit la valeur 0, soit la valeur 1. L'équivalent quantique est le qubit, pour « quantum bit ». L'objet physique peut être par exemple un atome ou un ion, dans un état quantique. Cela veut dire qu'il peut être dans une superposition d'états, comme le fameux chat de Schrödinger, dont l'état quantique correspondrait à moitié « état vivant » plus moitié « état mort ». Toutes les opérations logiques qui s'effectuent sur un système quantique vont se faire sur ce modèle, avec une combinaison des états A et B. Un ordinateur fondé sur une technologie quantique permet ainsi d'opérer sur un grand nombre d'états à la fois avec, en théorie, une démultiplication spectaculaire de la vitesse de calcul. Dans un ordinateur classique, rajouter un bit permet de représenter une valeur de plus avec laquelle on peut calculer ; en revanche, pour un ordinateur quantique, comme les opérations s'effectuent sur toutes les combinaisons possibles de ces états, rajouter un qubit double le nombre de valeurs sur lesquelles on va pouvoir travailler.
La mise en oeuvre d'un ordinateur quantique est extrêmement complexe, et rencontre encore de nombreux verrous technologiques. Malgré les annonces qu'on peut voir ici et là, il n'existe aucune machine dans le monde aujourd'hui que l'on puisse qualifier d'ordinateur quantique. Il existe des précurseurs, des « embryons », des combinaisons d'un certain nombre de qubits, mais aucun ne permet pour l'instant de faire des calculs significatifs. Un des principaux problèmes consiste à conserver, sur une durée de temps suffisante pour effectuer les calculs, le caractère quantique des qubits, qui est menacé par les perturbations extérieures. Ce phénomène de décohérence marque la frontière avec le monde classique. De la même façon, notre corps est constitué d'atomes dont chacun, s'il est isolé, est un objet quantique. Mais nous sommes, au final, et jusqu'à preuve du contraire, des êtres classiques dans un état bien défini. Quand on lance une pièce en l'air une fois, le résultat est aléatoire, mais quand on lance une pièce en l'air un million de fois, on sait très bien qu'à la fin, on obtiendra 50 % de pile et 50 % de face, il n'y a pas d'incertitudes là-dessus, pas de combinaisons de pile et de face, mais une résolution de l'incertitude, si l'on peut dire.
Quand on établit des raisonnements, on considère le qubit comme un objet parfait sur lequel, grâce à des combinaisons d'états, on peut travailler sur plusieurs valeurs à la fois et effectuer des opérations pour résoudre des calculs. En pratique, comme ils ne sont jamais parfaits et souvent bruités, il faut faire la distinction entre le qubit physique, qui est imparfait, et le qubit logique, qui sera parfait et sur lequel on pourra travailler informatiquement. Concrètement, un grand nombre de qubits physiques sera nécessaire pour réaliser un seul qubit logique. Quand on parle de grand nombre, ça peut être mille, ça peut être cent mille, ce qui veut dire que là où un algorithme va nécessiter un certain nombre de qubits logiques, pour sa réalisation physique, il faudra 1 000, 10 000, 100 000 fois plus de qubits physiques, ce qui représente des quantités absolument considérables : les prototypes les plus récents possèdent environ 50 qubit physiques alors qu'il en faudrait au minimum 50 000 pour réaliser des opérations. On est donc encore très loin d'une « révolution quantique », c'est-à-dire du moment où les ordinateurs quantiques commenceront à être compétitifs par rapport aux ordinateurs actuels, et encore plus loin d'une « suprématie quantique », où les ordinateurs quantiques seront beaucoup plus performants que les ordinateurs classiques.
Plusieurs formes concurrentes de qubit sont étudiées en parallèle par diverses équipes. Comme indiqué dans la note, une des technologies se fonde sur des ions qui se retrouvent piégés dans une cavité dans un certain état quantique. Une autre utilise des atomes froids à la place des ions. La technologie la plus aboutie en France est celle des semi-conducteurs. Compétitive au niveau mondial, elle peut devenir une technologie d'avenir et est développée au CEA LITEN à Grenoble. Il y a là un enjeu à la fois scientifique et industriel, économique mais aussi d'innovation pour identifier la forme de qubit qui sera la plus rentable et qui se prête le mieux à une intégration à grande échelle.
De plus, des discussions portent sur la création d'un standard international pour établir des comparaisons objectives qui permettront de dire que telle ou telle technologie ou telle ou telle équipe est la plus en avance.
Personne ne sait à quel horizon se réalisera l'ordinateur quantique ; ça peut être quelques années, ou 10, 20 ans ou encore plus. Il est presque certain que l'ordinateur quantique n'arrivera pas de sitôt ; et même quand il apparaîtra, il n'aura pas vocation à remplacer l'ordinateur classique. La voie la plus probable sera une coexistence entre les ordinateurs classiques et les ordinateurs quantiques. Peut-être même une coexistence de plusieurs technologies d'ordinateur quantique ! Ces dernières années, dans le cas de la reconnaissance faciale, par exemple, on a vu des architectures, dites en réseaux de neurones et basées sur des processeurs graphiques, cohabiter avec des architectures classiques ; de la même façon, on pourra voir des technologies classiques et quantiques cohabiter dans le futur.
Même quelques qubits bruités pourront se combiner à une architecture classique pour apporter, sur certaines tâches précises, des « accélérations quantiques », avec, pour un algorithme, une partie du travail traitée de façon classique et une partie traitée de façon quantique.
Il reste beaucoup d'incertitudes pour l'instant, mais, en même temps, il s'agit de technologies sur lesquelles il est vital pour la France de se positionner, avec un possible enjeu majeur en termes d'équipements à travers le monde.
– Est-il possible de préciser dans combien de temps ces technologies complexes vont commencer à se concrétiser ?
– Tout le monde aimerait bien le savoir ! Il est certain que toutes les importantes annonces récentes d'acteurs tels qu'IBM, tels que certaines grandes universités américaines, etc. portant sur des ordinateurs quantiques opérationnels sont très exagérées, et doivent être regardées avec une grande circonspection. Le délai à partir duquel ces technologies pourraient se concrétiser reste très incertain. Les experts consultés ont donné des réponses variables : pour les uns, c'est l'affaire de quelques années, pour d'autres d'au minimum vingt ans.
– S'agissant du délai, quels sont les obstacles techniques qui empêchent de préciser l'échéance? Par ailleurs, concernant l'impact environnemental de ce type de machines, on sait qu'aujourd'hui l'ensemble des outils de la digitalisation produisent 50 % de gaz à effet de serre de plus que le transport aérien, et que l'envoi d'un message avec une pièce jointe s'accompagne d'une consommation du même ordre de grandeur que celle d'une ampoule basse consommation durant une heure. Quelle serait l'empreinte carbone de ces ordinateurs quantiques ?
– La consommation de l'ordinateur quantique sera inférieure, toutes choses égales par ailleurs, à celle de l'ordinateur classique, ne serait-ce que parce qu'il sera beaucoup plus efficace. En une opération, il effectue un grand nombre d'opérations réalisées avec des ordinateurs classiques, ce qui représentera une très grande économie. Comme on le verra pour l'algorithmique ou la cryptographie, l'attrait de l'ordinateur quantique est qu'il permet de résoudre en moins d'opérations certains problèmes nécessitant de façon classique un nombre considérable d'opérations, parce qu'il traite plusieurs valeurs à la fois.
En revanche, il faut noter que l'ordinateur quantique demandera de travailler à de très basses températures, avec un apport d'énergie important pour le refroidissement. En termes de système, à coup sûr, il faudra beaucoup plus d'énergie pour le maintenir en état. Les ordinateurs classiques ont déjà besoin de froid, mais pas du tout au même niveau que les ordinateurs quantiques. En revanche, on gagnera en consommation sur le temps d'exécution. Quant au bilan au final, il est beaucoup trop tôt pour l'évaluer.
Les obstacles sont multiples. Actuellement, on sait réaliser une unité logique, de la même façon que par le passé on savait construire un transistor. Par la suite, les performances de l'ordinateur résultaient du nombre de transistors que l'on parvenait à combiner, à intégrer sur une puce. Petit à petit, on a réussi à en mettre de plus en plus. Il s'agissait de problèmes de miniaturisation, d'efficacité, de manière de mettre en place les systèmes d'impression des circuits, etc.
À ce jour, en matière d'ordinateur quantique, on parvient à mettre en oeuvre une unité, par exemple un atome refroidi, ou un ion piégé dont on parvient à contrôler l'état, en agissant avec tel ou tel dispositif pour le transformer, le mettre en communication avec un autre ion, etc. On le fait pour un, pour deux ou pour trois atomes ou ions. Au fur et à mesure, une course à l'accroissement du nombre de ces unités s'est développée. Le problème n'est pas tant de les faire tenir ensemble sur le plus petit espace possible, mais d'arriver à faire en sorte qu'ils restent tous en cohérence : si l'on change quelque chose à un endroit, cela doit changer quelque chose de façon pleinement cohérente pour les autres.
Au contraire, dans un système macroscopique, si l'on change l'état d'un atome à un endroit, cela ne change rien à l'état des autres atomes ailleurs, créant ainsi une décohérence, parce que les atomes agissent au final de façon indépendante. Comment parvenir, du point de vue physique, à des conditions tellement parfaites que toute la cohérence soit préservée, malgré le grand nombre de qubits ? Il s'agit de vrais problèmes de physique fondamentale. Pour l'instant, les meilleurs systèmes parviennent à quelques dizaines de ces unités, alors qu'il en faudrait au minimum mille fois plus.
– Pour ceux qui n'ont jamais fait de physique quantique, le sujet de ces trois notes s'avère ardu. Est-il possible de faire le point sur l'état de la recherche sur ces technologies en France? Sommes-nous en avance, ou d'autres pays sont-ils plus en avance que nous ? Dans la mesure où tu as beaucoup travaillé sur l'intelligence artificielle, comment vois-tu l'évolution dans les années à venir, entre celle-ci et les technologies quantiques? Ces deux technologies peuvent-elles collaborer, compte tenu notamment des enjeux en matière de consommation d'énergie ?
– Dans la continuité de cette question, en dehors des États-Unis, est-ce que les pays asiatiques, notamment la Chine, mènent des recherches sur les ordinateurs quantiques ?
– La France dispose d'une très forte école de physique quantique théorique, avec des prix Nobel comme Claude Cohen-Tannoudji ou Serge Haroche, et des nobélisables comme Alain Aspect. L'expertise française est mondialement reconnue en la matière.
Pour ce qui est du développement de l'ordinateur quantique, nous avons, en France, des laboratoires et des équipes de très bon niveau. L'équipe du CEA-LITEN à Grenoble, mentionnée précédemment, est l'une des quelques équipes les plus reconnues dans le monde sur ce sujet, l'une des rares qui peut prétendre peut-être détenir la solution pour l'ordinateur quantique de demain.
La coopération avec l'intelligence artificielle est un sujet qui a, pendant longtemps, constitué un vrai problème. Tout récemment, des solutions et des algorithmes sont apparus pour mettre les technologies quantiques au service de l'intelligence artificielle. Dans ce domaine, il existe aussi des développements et une expertise en France, qui ne sont pas négligeables.
Pour ce qui est de la distribution au plan international, dans un certain nombre de pays développés, des équipes travaillent sur les technologies et la programmation quantiques. La Chine ne communique pas tellement sur le sujet. Sur certains aspects, comme la cryptographie quantique, la Chine a fait des annonces fortes voici quelques années. Comme sur tous les grands enjeux technologiques et scientifiques actuels, la Chine a un important programme de recherche en cours. Si l'on prend du recul, sur le plan des équilibres géopolitiques, le grand fait de la dernière décennie et de la décennie en cours est la montée en puissance de la Chine, par rapport à la redistribution des cartes internationales.
– L'objectif des ordinateurs quantiques est de permettre de travailler beaucoup plus vite et de traiter plus de données qu'avec les ordinateurs actuels. Est-ce que cela signifie que si l'on n'évolue pas dans la conception des ordinateurs, dans cinq ou dix ans, le monde ne pourra plus fonctionner avec les puissances des ordinateurs actuels ?
– Nous sommes dans une course générale à l'augmentation des performances, avec des besoins exprimés de plus en plus forts, des calculs de plus en plus gourmands, etc. L'ordinateur quantique est la solution permettant d'éviter la stagnation, c'est-à-dire la situation dans laquelle l'amélioration des performances des ordinateurs va stagner, alors que pendant des décennies on a vu les performances augmenter, aussi bien en termes de capacité de stockage que de vitesse de calcul. Nous avons tous observé le passage des disquettes au disque dur, la miniaturisation des ordinateurs, les puissances de calcul extraordinaires des téléphones, l'augmentation spectaculaire des performances des machines en général, etc. Dans les années qui viennent, on arrive aux limites envisageables de cette augmentation. L'ordinateur quantique est, pour l'instant, la meilleure piste pour continuer à poursuivre dans le futur l'amélioration des performances.
Pour compléter ma réponse précédente, comme mentionné en page 2 de la note, actuellement des systèmes de cinq à vingt qubits sont réalisés, avec un taux d'erreur sur les opérations de l'ordre de 2 à 5 %. Ces systèmes comportent donc d'importantes incertitudes, évidemment complètement inacceptables pour la plupart des applications. L'enjeu consiste à les réduire au maximum, tout en conservant l'état quantique, à parvenir à des conditions physiques de robustesse et de stabilité permettant de rester sans erreur le plus longtemps possible, avec le système le plus important possible en taille logique. Le passage des qubits physiques aux qubits logiques a pour objet de regrouper les premiers, individuellement peu fiables, pour constituer une unité globale qui puisse être considérée comme fiable.
Aujourd'hui, l'ordinateur à cinquante qubits mentionné précédemment, le plus performant, réalise une multiplication simple avec un taux d'erreur de quelques pourcents, par exemple 3×5 avec 2 % d'erreur. Ce n'est encore qu'un début !
Je vous propose de vous présenter maintenant la note sur la programmation quantique, les deux sujets, ordinateur et programmation, étant parallèles.
Ê Examen de la note scientifique sur les technologies quantiques : la programmation quantique (M. Cédric Villani, député, rapporteur)
– Il y a toujours eu, d'une part, le hardware, le matériel, d'autre part, le software, le logiciel, avec une course entre les deux. Dans les débuts de l'informatique, le hardware constituait le facteur limitant et il fallait trouver toutes sortes d'astuces pour utiliser le moins de mémoire possible, le moins d'opérations possibles. On a ensuite connu une époque où c'était la programmation qui était déficiente et tout le monde passait son temps à imaginer les moyens de corriger les bugs de programmation.
Maintenant, il s'agit de développer à la fois le hardware et le software en termes quantiques. Ce ne sont pas les mêmes experts qui développent l'ordinateur quantique et la programmation quantique, même si évidemment les uns regardent ce que les autres font. La programmation quantique est déjà un sujet à part entière, et ce depuis bien avant l'arrivée des ordinateurs quantiques. Pour simplifier, la question est comment programmer un ordinateur quantique le jour où il arrivera ? On parle d'architectures différentes mais aussi de langages et de protocoles différents pour écrire un programme informatique.
Il faut faire la distinction entre le langage de « haut niveau », qui nous est compréhensible et est orienté vers les problèmes à résoudre, indépendant des spécificités du matériel ; c'est le langage qu'on apprend dans nos écoles d'informatique. Et puis le langage de « bas niveau », qui va dicter au processeur les opérations élémentaires et qui va dépendre de l'architecture physique. L'interface entre les programmes de « haut niveau » et les programmes de « bas niveau », c'est une science en soit, c'est de l'optimisation et de la compilation. Sur une architecture classique, la compilation est l'étape qui transforme le programme écrit en langage Pascal ou bien Python en un langage exécutable par le processeur.
Pour avoir un ordinateur quantique et un programme opérationnels, il faudra prendre en compte les spécificités de la mécanique quantique et en particulier son caractère probabiliste, au contraire de l'informatique classique qui est déterministe.
Des plateformes de programmation quantique ont déjà été mises au point, soit par des équipes académiques, soit par des équipes industrielles. Certaines mettent à disposition de l'utilisateur des qubits dans le cloud pour permettre à des communautés de se former et de se développer. Côté français, apportant ainsi une contribution majeure, Atos a mis en ligne sa Quantum Learning machine simulant sur un supercalculateur classique Bull le fonctionnement d'un ordinateur quantique disposant de 30 à 41 qubits, qui intègre les spécificités des différentes technologies de qubits (ions piégés, supraconducteurs…).
À ce jour, peu d'algorithmes quantiques ont été découverts. Le plus important et le plus célèbre est l'algorithme de Shor pour la factorisation de très grands nombres, nous en reparlerons plus précisément dans l'examen de la note suivante, sur la cryptographie. L'algorithme de Shor est un algorithme de factorisation extrêmement efficace, qui a rendu son auteur célèbre. Il a fait entrevoir un futur dans lequel des problèmes aujourd'hui inaccessibles en informatique classique seront à portée demain avec l'informatique quantique.
Pour reprendre la question précédente, nous allons probablement nous retrouver dans un scénario à deux choix : soit, grâce au quantique, nous nous emparons collectivement de tâches inacessibles aujourd'hui, en le mettant au service du bien commun ; soit, a contrario, un acteur privé ou étatique développera ces technologies, et lui seul sera capable de réaliser certaines actions, qui lui donneront un avantage comparatif important.
– Peut-on citer un exemple simple de problème qui sera accessible et qui ne l'est pas actuellement ?
– L'exemple classique, dont je parlais précédemment, est justement l'algorithme de Shor. La plupart des protocoles de chiffrement et de déchiffrement actuels reposent sur la factorisation de très grands nombres : pour un ordinateur classique, multiplier est simple mais l'opération inverse consistant à factoriser est compliqué. L'algorithme de Shor utilisé sur un ordinateur quantique permet de retrouver les facteurs rapidement. De manière générale, les procédés de chiffrement reposent sur des problèmes réputés difficiles pour l'ordinateur classique. En revanche, un ordinateur quantique opérationnel pourait a priori résoudre ces problèmes très rapidement.
En complément, une autre catégorie de problèmes se prête très bien à l'informatique quantique : les problèmes d'optimisation pour lesquels, à partir d'un grand nombre de paramètres, il s'agit de trouver la meilleure solution : la meilleure façon de faire rentrer différents objets dans un sac, de visiter toutes les villes d'un itinéraire, de réaliser une activité donnée au moindre coût… De nombreux problèmes d'optimisation, qui demandent un temps de calcul extraordinaire avec des architectures classiques, seront possibles de façon beaucoup plus simple avec un ordinateur quantique.
En ce qui concerne l'IA, l'optimisation ne représente qu'une petite partie du problème général mais c'en est néanmoins bien une. Le grand enjeu actuellement pour l'IA concerne toute la partie statistique, pour arriver à identifier des corrélations. Tout l'enjeu sera de déterminer quelle partie sera plutôt à traiter de façon quantique et quelle partie sera plutôt à traiter de façon classique.
– Il est quand même étonnant qu'on sache dire ce que permettra de réaliser l'ordinateur quantique, que précisément l'on ne sait pas produire aujourd'hui !
– C'est justement toute la beauté de la science informatique, qu'il convient de bien différencier de l'informatique en tant qu'industrie. La science de l'informatique est la science de la complexité. Peu lui importe avec quels moyens physiques on réalise des opérations. Elle s'interroge sur le nombre d'opérations, sur leur degré de complexité, les instructions à utiliser, etc. Elle se demande, par exemple, combien d'opérations seront nécessaires pour multiplier deux nombres de mille chiffres chacun. Si le temps requis pour une multiplication élémentaire d'un chiffre par un autre chiffre est connu, est-il possible d'en extrapoler le temps total nécessaire ?
Cet exemple n'est pas anodin. On a cru pendant longtemps que multiplier un nombre à n chiffres par un autre nombre à n chiffres demanderait, en gros, n opérations au carré (n2), parce que chacun des chiffres sera multiplié par tous les chiffres de l'autre nombre. On s'est rendu compte, probablement voici quelques décennies, que cela pouvait être réalisé beaucoup plus vite, en n puissance 1,1 ou 1,2 opérations (n1,1 ou n1,2). Des algorithmes de multiplication rapide sont aussi apparus, avec des techniques basées sur les transformations de Fourier, permettant de réduire considérablement le nombre d'opérations nécessaires. Il s'agit d'informatique au sens de théories de la complexité, qui ne s'intéresse pas au dispositif physique, mais à la complexité de l'ensemble de l'opération.
– Pourquoi ne faut-il pas n2 opérations ? Parce qu'on retrouve des combinaisons qui se reproduisent et qui rendent facile une multiplication déjà effectuée ?
– Je n'ai pas souvenir d'avoir vu une justification de ce « n puissance un plus epsilon » (n1+ε) complètement explicitée. Je me souviens l'avoir lu dans un ouvrage de Leslie Valiant. Les grands ouvrages comme ceux de Donald Knuth ne s'intéressent pas aux mécanismes physiques, mais uniquement au nombre d'opérations élémentaires à réaliser et à leur complexité. Ils classifient les problèmes abstraits suivant les difficultés à résoudre, les dispositifs permettant de les surmonter, etc. Pour cette raison, la discipline se développe bien avant l'apparition des ordinateurs quantiques, de la même façon que la théorie de la programmation est apparue bien avant les langages, avec des précurseurs comme Ada Lovelace.
Pendant longtemps on s'est demandé – certains se le demandent encore – si la programmation quantique restera uniquement une discipline universitaire, ou sera effectivement mise en oeuvre dans les laboratoires de recherche, et pour les utilisateurs.
Aujourd'hui, on voit que les ordinateurs disposent de cinquante qubits, là où il leur en faudrait mille fois plus. Le jour où l'on aura des ordinateurs performants, capables de résoudre des tâches complexes, la question se posera de façon très forte et concrète. Un encadré en page deux de la note évoque précisément cet algorithme de Shor qui, en 1994, a vraiment, d'un coup, mis sous les feux de la rampe la question de la programmation quantique, en montrant que le problème de la factorisation, alors perçu comme très difficile, deviendrait facile à résoudre si l'on pouvait disposer d'ordinateurs quantiques. On voit que sur un tel sujet, les avantages comparatifs obtenus peuvent être considérables. Comme indiqué dans l'encadré, il faut commencer par représenter le problème dans un formalisme adapté au calcul quantique, avec une combinaison d'états, comme des atomes qui se trouveraient à 10 % dans un état, 20 % dans un deuxième, 2 % dans un troisième, etc. tant qu'ils restent dans un état quantique et tant qu'on n'effectue pas de mesure les obligeant à prendre un état unique défini.
Une fois le problème mis sous cette forme, on agit sur tous ces objets à la fois. On commence par préparer le problème d'une façon permettant de le traiter en beaucoup moins d'opérations qu'avant, un peu comme si au lieu de passer en revue toutes les pages d'un livre de façon linéaire, opération très longue, on agissait simultanément sur toutes les pages du livre à la fois, par exemple pour effectuer une correction ou un changement de fonte. Mais, au préalable, il faut se mettre en situation de traiter le problème de manière quantique, par exemple en ouvrant le livre et en collant toutes les pages les unes à côté des autres.
La démarche lancée aujourd'hui par Atos, permet, à défaut de disposer d'un ordinateur quantique, de simuler par des ordinateurs classiques le comportement de celui-ci, de façon à se « faire la main », algorithmiquement parlant. Si l'on pouvait à peu de frais simuler le fonctionnement d'un ordinateur quantique, cela signifierait qu'on saurait résoudre à peu de frais des problèmes qui sont du ressort de celui-ci. Tel n'est pas le cas, bien entendu. Les ordinateurs quantiques les plus complexes simulés par Atos comportent quelques dizaines de qubits, ce qui correspond aussi aux meilleurs systèmes qu'on parvient à fabriquer actuellement physiquement.
– Encore une fois, la liberté est menacée si l'on parvient à décrypter rapidement les messages avec ces technologies.
– C'est justement l'enjeu des questions de cryptographie quantique, sur lesquelles porte la note suivante. Aujourd'hui, la liberté implique aussi de pouvoir transmettre un message avec un bon niveau de confiance sur le fait qu'il ne sera pas lu.
Ê Examen de la note scientifique sur les technologies quantiques : cryptographies quantique et post-quantique (M. Cédric Villani, député, rapporteur)
– Je vous propose d'aborder maintenant le dernier volet de nos travaux sur les technologies quantiques : les cryptographies quantique et post-quantique.
Les communications tiennent une place centrale dans notre société et les technologies utilisées aujourd'hui permettent d'échanger de l'information sur de très grandes distances, à très haut débit, et de sécuriser les données échangées, que ce soit pour des questions de défense, de diplomatie ou plus simplement des questions de codes de cartes bancaires, de mots de passe sur Internet…
Un des piliers de la sphère numérique aujourd'hui correspond aux méthodes de chiffrement et déchiffrement qui s'appuient sur des techniques mathématiques réputées complexes pour un ordinateur classique.
Je dis « réputées » parce que, dans la plupart des cas, on utilise des problèmes dont tout porte à croire qu'ils sont inviolables. Il ne s'agit pas de simplement chercher toutes les façons de résoudre le problème ; le cadre des théories sur la complexité permet aussi d'apporter une réflexion théorique sur le sujet en classifiant les problèmes. Certains de ces problèmes ont été identifiés comme étant extrêmement difficiles et ont été retenus pour traiter cette confidentialité, et en particulier la question de la factorisation des très grands nombres, évoquée précédemment, ou encore du logarithme discret.
Les méthodes de cryptographie sont soit symétriques, soit asymétriques : dans le premier cas, une clef secrète, partagée au préalable, est utilisée pour chiffrer les messages échangés entre deux personnes ; et dans le second cas, on se « met d'accord » sur la clef secrète en amont de la communication. En pratique, les deux techniques sont utilisées.
L'exemple le plus emblématique est le chiffrement RSA, pour Rivest, Shamir et Adelman, qui repose sur la factorisation en nombres premiers de nombres à 617 chiffres.
On peut, à chaque fois, complexifier ces algorithmes en augmentant la taille de la clef, en passant de 617 à 1 000 par exemple. Plus on augmente la taille, et plus l'attaque devient difficile.
Depuis les années 1990, on sait que l'utilisation de l'algorithme de Shor combinée à un ordinateur quantique, à condition qu'il possède des milliers de qubits, est susceptible de menacer la sécurité de l'agorithme RSA, mais aussi d'autres algorithmes de chiffrement.
La question est donc : quand arrivera l'ordinateur quantique et à partir de quand faudra-t-il s'en inquiéter ?
On pourrait se dire : attendons de voir venir car l'incertitude sur l'arrivée de l'ordinateur quantique est grande.
Pourtant, on ne peut pas faire ça, parce que les protocoles de chiffrement ont été inclus dans un ensemble de couches informatiques, de sorte que si on doit modifier ces protocoles et tout ce qui sera « cassable » un jour par l'ordinateur quantique, cela nécessitera des années.
Or le temps nécessaire pour modifier ces protocoles correspond pratiquement à celui qu'il faudra pour développer un ordinateur quantique dans les scénarios les plus optimistes. D'où l'importance de développer dès maintenant des algorithmes dit post-quantiques, c'est-à-dire capables de résister à l'ordinateur quantique. Un algorithme post-quantique ne signifie pas algorithme quantique, mais un algorithme reposant sur de la programmation classique et capable de résister à une tentative de déchiffrement par un ordinateur quantique.
Depuis 2017, un appel à projets mondial pour la définition de nouveaux standards de cryptographie post-quantique, est organisé par le National institute of standards and technology, le NIST américain, qui sélectionne les candidats. La France participe sous la forme d'un consortium de chercheurs et d'industriels.
Une méthode est considérée comme robuste dans ce domaine après environ une dizaine d'années de tests concluants.
Donc, même si l'ordinateur quantique s'inscrit dans un horizon lointain, il faut se préoccuper dès maintenant des évolutions du protocole de sécurisation.
– Mais pour réussir, ne faut-il pas connaître justement ce que le l'ordinateur quantique et les programmes quantiques ne savent pas faire ?
– Absolument, et c'est là aussi tout l'enjeu de la théorie de la complexité avec les ordinateurs quantiques. L'ordinateur quantique parvient, pour l'instant, à résoudre certaines classes d'algorithmes. Il se trouve que le chiffrement en est un, mais on ne peut pas dire, pour n'importe quel problème, que l'ordinateur quantique saura le résoudre. L'ordinateur quantique pourra en résoudre certains. Pour les autres, tout porte à croire que l'ordinateur quantique sera aussi inefficace que l'ordinateur classique. Les scientifiques théorisent sur ce sujet.
– Pour donner un ordre de grandeur, combien de temps faut-il pour décrypter avec les ordinateurs classiques le chiffrement réalisé durant la guerre par les Allemands avec la machine Enigma ?
– Aujourd'hui, il serait décrypté par force brute, ce qui alors était infaisable. Mais il est difficile d'évaluer le temps que ce décryptage demanderait.
À l'époque, ce qui était prodigieux c'est le travail de modélisation, de théorisation et de mise en probabilités qui a été réalisé. La partie « mécanique », réalisée par ordinateur, était indispensable, mais la partie modélisation était extraordinairement astucieuse.
Grâce à Alan Turing et à l'équipe avec laquelle il collaborait, le travail de déchiffrage a pu être réalisé. Effectivement, il a joué un rôle majeur dans la seconde guerre mondiale, en particulier parce que le débarquement de Normandie ne pouvait être gardé secret et qu'il était impossible à effectuer en présence des sous-marins allemands, dont la détection nécessitait cette opération de déchiffrage. L'échec de cette dernière aurait à coup sûr conduit à une ou deux années de guerre supplémentaires.
Cet exemple est historique, parce qu'il montre à quel point un décryptage mathématique peut changer l'histoire, et aussi parce qu'il combine forces mécaniques et modélisation poussée. Encore aujourd'hui, on a du mal à comprendre comment Turing a pu penser sa façon de reconstituer l'information statistique.
On considère Turing comme le fondateur de la discipline qu'est l'intelligence artificielle et aussi comme le fondateur de la notion de complexité algorithmique, avec un article précurseur sur les nombres calculables. En mathématique, on considère qu'un nombre, par exemple la racine carrée de deux, existe et on réalise des opérations avec lui. En informatique, on se demande s'il est compliqué de le calculer, à quelle vitesse il peut être calculé et le nombre d'opérations nécessaires pour le faire.
– On ne connaît pas le point d'arrivée, au sens où la racine carrée de 2 est une valeur abstraite idéale. La question pour l'informatique est de l'approcher au plus près, à 10-6, 10-10 ou 10-12 près. On sait que dans la Babylone antique la racine carrée de 2 était déjà approchée à 10-6, ce qui représente une précision inouïe.
Selon l'algorithme utilisé, le temps passé peut-être gigantesque ou très court. Par dichotomie, comme enseigné à l'école, en dix opérations, il est possible d'obtenir une précision au millième, soit avec trois chiffres, alors qu'un bon algorithme, dit babylonien, permet de parvenir à vingt chiffres.
Dans un cas, grossièrement, chaque opération ajoute une unité de précision, alors que dans l'autre elle double la précision. Cet exemple montre que, même sur un cas simple, le choix de l'algorithme conduit à des différences de vitesse extraordinaires. De même, selon qu'on arrive à mettre en oeuvre l'algorithme classique ou l'algorithme quantique, on se retrouve, pour certains problèmes, avec des temps d'exécution et un nombre d'opérations totalement différents.
Pour résister à l'ordinateur quantique, il s'agit effectivement de trouver ce qu'il ne saura pas faire. C'est un sujet sur lequel travaillent également des équipes françaises. Sur tout ce qui est abstrait, on peut faire confiance à la France pour avoir les bons experts, que ce soit en physique fondamentale, en algorithmique, ou en mathématiques. C'est un sujet qui va très vite s'imposer.
– On dit que l'école de mathématiques française est excellente. Mais il en existe d'autres, par exemple des Polonais ont particulièrement travaillé sur Enigma. Dans le monde, quelles sont les bonnes écoles de mathématiques ?
– Il est exact que dans le cas d'Enigma l'école polonaise a joué un rôle capital. C'est l'une des grandes écoles du XXe siècle. En revanche, elle a été absolument dévastée par la seconde guerre mondiale, avec une hémorragie dont elle ne s'est jamais remise. Les grandes écoles mathématiques reconnues dans le monde sont sans conteste les écoles française, russe, historiquement allemande – même si son apogée remonte au XIXe siècle, et, sur le tard, américaine. Aux XVIIe et XVIIIe siècles, la position de la France était incontestée, avec une place pour la Grande-Bretagne. Au XIXe siècle, la compétition se jouait entre la France, l'Allemagne et la Russie, qui arrive un peu plus tard dans le jeu. Au XXe siècle on retrouve les mêmes acteurs, avec en plus les États-Unis. Quand on inclut l'informatique, il faut toujours ajouter Israël, un acteur absolument de premier plan en informatique théorique, cryptographie théorique, etc.
– La Chine monte en puissance et occupe toutes les premières places après les pays vedettes. En termes de volume, la recherche chinoise s'accroît de façon considérable, au point d'engorger les revues scientifiques et de mettre tout le système sous tension, compte tenu du volume et de la qualité qui augmentent simultanément. Les moyens mobilisés en Chine sont sans équivalent. De manière générale, la concentration des moyens chinois sur les sciences n'a pas d'équivalent dans le reste du monde.
Je vous propose de conclure en évoquant maintenant la cryptographie quantique, dont le paradigme est complètement différent des techniques antiques pour assurer une cryptographie.
La cryptographie quantique utilise les principes de la mécanique quantique et en particulier le phénomène d'intrication qui permet de « lier » deux systèmes physiques, dans le même état, et de conserver cette connexion à distance, même très grande.
Les deux systèmes intriqués peuvent alors être envoyés à deux endroits différents, à travers une fibre optique par exemple, et si un système est intercepté d'un côté, alors le second est aussi impacté de l'autre côté, les deux destinataires recevant exactement la même information. Cette information peut être une clé secrète qui servira ensuite à se transmettre des messages, une clé qui sera tellement longue qu'on pourra garantir son inviolabilité. On appelle cela de la « distribution quantique de clés » ou Quantum key distribution. Les principes de physique quantique sont alors utilisés pour assurer la sécurisation des réseaux et la détection des intrusions. Des liaisons quantiques sécurisées sont déjà utilisées depuis une douzaine d'années dans le canton de Genève en Suisse pour des votes électroniques et, en 2016, la Chine a fait une annonce spectaculaire de communication quantique par satellite avec l'Autriche sur plus d'un millier de km.
La question de savoir si ça peut se généraliser en un futur Internet quantique est ouverte, mais il s'agit là de prospective de long terme.
En conclusion, d'une part la cryptographie post-quantique repose sur des méthodes de chiffrement classiques et vise à résister à la puissance de calcul des futurs ordinateurs quantiques, d'autre part, les techniques quantiques, elles, tirent partie des lois de la physique quantique pour assurer une bonne sécurisation. Ces deux axes sont comme les deux faces complémentaires de la révolution apportée par l'ordinateur quantique, avec la cryptographie quantique qui en est déjà à la preuve de concept.
– Concernant la machine Enigma, qu'est-ce qu'un procédé électromécanique ? S'agit-il de l'ancêtre de l'ordinateur ?
– Il s'agissait de réseaux électriques comportant des jonctions. Suivant qu'elles étaient ou pas établies, elles représentaient une opération logique. Le problème consiste toujours à traduire une question logique en une question électrique : autrement dit, un courant qui passe ou pas. Ainsi, l'opération « et » correspond à tel état, l'opération « ou » à tel autre, etc. Pour Enigma, on disposait d'un processus de validation développé spécifiquement à cette fin, qui permettait automatiquement de vérifier si certaines hypothèses étaient à abandonner. Un moment clé est survenu quand il s'est avéré nécessaire de réaliser le déchiffrage à grande échelle. Les Américains ont, pour leur part, juste apporté la capacité de fabriquer en grande série. Une partie de ce dispositif représentait un ancêtre de l'électronique, telle qu'on la connaît.
L'ordinateur qui a été conçu par la suite prenait une partie de son inspiration dans les procédés de décryptage. Sur ce point, la source qui fait référence est la biographie d'Alan Turing intitulée « The Enigma », par Andrew Hodges, dont le film est supposé avoir été tiré, mais qui est bien préférable à ce dernier.
– Le film a eu au moins l'avantage de faire connaître le livre.
– Il faut dire que les alliés ont quand même eu la chance de tomber sur la machine, parce qu'un sous-marin qui était supposé couler n'a pas coulé.
– Effectivement, certains épisodes ont permis de récupérer des clés précieuses, dont un concernant un sous-marin. Des fautes des opérateurs allemands ont également été exploitées.
La publication des notes scientifiques n° 15 sur l'ordinateur quantique, n° 16 sur la programmation quantique et n° 18 sur les cryptographies quantique et post-quantique est autorisée.
Ê Examen d'une note scientifique sur la politique vaccinale en France (Jean-François Eliaou et Cédric Villani, députés, rapporteurs, et Florence Lassarade, sénatrice, rapporteure).
– Nous allons passer à la dernière note et je vous prie d'excuser l'absence de Florence Lassarade. La note sera donc présentée par Jean-François Eliaou et Cédric Villani.
– On l'a vu, on s'en souvient, la question des vaccinations fait partie des grands débats du début de la législature, le gouvernement ayant proposé l'extension de la liste des vaccins obligatoires de 3 à 11.
Avant, étaient obligatoires les vaccins contre la diphtérie, la poliomyélite et le tétanos (DTP), maintenant le sont aussi ceux contre la rougeole, les oreillons, la rubéole (ROR), l'hépatite B, la coqueluche, les infections à méningocoques, à pneumocoques et à Haemophilus influenzae de type B.
La décision prise par Agnès Buzyn, ministre de la Santé, entendait remédier au problème de la mauvaise couverture vaccinale pour certains vaccins, notamment celui contre la rougeole.
Pour l'Office, il y avait un réel intérêt à produire une note scientifique sur le sujet, aussi documentée et équilibrée que possible. La note est complétée par un grand nombre de références, ce qui traduit le fait que ce sujet présente de nombreux aspects sous-jacents pour lesquels l'analyse doit procéder maladie par maladie.
Il s'agit aussi d'un sujet vivement débattu : c'est la raison pour laquelle mener l'opération à bien a constitué un véritable casse-tête pour notre conseillère scientifique en sciences de la vie, face aux positions des personnes consultées qui pouvaient être contradictoires les unes par rapport aux autres.
Finalement, la note a été élaborée à froid, après la polémique suscitée par l'extension des obligations, donc dans un contexte un peu dépassionné et avec le recul nécessaire pour prendre en compte les résultats de cette première année et demie d'extension des vaccinations obligatoires.
Florence Lassarade et Jean-François Eliaou, co-rapporteurs, sont respectivement pédiatre de formation et professeur d'immunologie. Ils étaient donc parfaitement légitimes – et même tout désignés – pour réaliser ce travail.
Pour en venir au sujet, tout d'abord, il convient de rappeler que le vaccin est l'une des grandes inventions, en santé publique, contre les maladies infectieuses, qui a permis d'augmenter la durée de vie moyenne, conjointement avec l'amélioration de l'hygiène et le développement des antibiotiques.
Bien que, par le passé, le développement des vaccins ait été relativement empirique, aujourd'hui, cela constitue un enjeu de recherche à part entière. Il faut aussi rappeler que malgré ce bilan, il y a un sentiment de défiance d'une partie de la population, d'importance absolument non négligeable, qui s'est manifesté dès le premier vaccin obligatoire, celui développé contre la variole.
Plus récemment, ce sentiment a été nourri notamment par des suspicions de maladies entraînées par les vaccins. Cela a notamment été le cas du vaccin ROR et de l'autisme, dans une étude d'Andrew Wakefield, à la fin des années 90 – étude qui s'est révélée frauduleuse par la suite. Une partie des Français hésitent à se faire vacciner, voire refusent la vaccination, et la France est le pays d'Europe dans lequel cette défiance est la plus marquée, d'assez loin.
Les personnes hésitantes cherchent à se renseigner tous azimuts sur internet, sur les réseaux sociaux, sur les forums, mais continuent tout de même à accorder du crédit et de la confiance au médecin de famille. Regagner la confiance des citoyens était un des enjeux de la mesure voulue par le gouvernement.
Parmi les stratégies qui doivent être mises en oeuvre, il y a au premier rang la recherche de la transparence. Je salue à ce propos les efforts de Santé publique France en ce sens, avec le site vaccination-info-service.fr. Il y a aussi les efforts de pédagogie, à la fois des autorités de santé envers les médecins, puisqu'il semble que 8 % des médecins eux-mêmes ne soient pas confiants vis-à-vis de la vaccination, et aussi les efforts de pédagogie des médecins à l'égard de leurs patients. Et puis, finalement, il y a toute la question des réseaux sociaux et de leurs efforts pour ne pas mettre en avant des contenus comportant de fausses informations médicales. Ceci s'inscrit donc dans le cadre de tous les débats actuels sur la régulation des contenus des réseaux sociaux.
Le contexte dans lequel la vaccination et la politique vaccinale s'inscrivent comporte ainsi des enjeux scientifiques, des enjeux de santé et des enjeux de confiance et d'information.
– Je voudrais revenir sur le sujet de l'inquiétude, qui, effectivement, est stratégique dans une politique médicale ou de santé publique qui consiste à vacciner un grand nombre d'individus.
Il faut bien avoir en tête qu'en médecine et en sciences existe la notion de rapport bénéfices-risques. Et dans le cas des vaccins, les scientifiques et les médecins observent que peu de produits de santé peuvent se targuer d'un aussi bon rapport bénéfices-risques. En effet, toute intervention médicale comporte un risque – y compris pour la personne qui vaccine : elle peut se blesser avec la seringue, si l'on veut envisager toutes les éventualités. Mais ce qui est important, c'est d'estimer ou d'évaluer ce rapport bénéfices-risques et de vérifier qu'il est extrêmement favorable, c'est le cas de la vaccination.
Il n'empêche que de nombreuses personnes, ainsi que des médecins, ont des inquiétudes. Il me semble important de ne pas rester sur le statu quo actuel et d'utiliser ces inquiétudes pour dynamiser la recherche. La recherche en vaccinologie doit contribuer à améliorer les vaccins, notamment leur efficacité, et à diminuer les risques potentiels, tout cela concourant à améliorer la confiance des concitoyens et des professionnels dans la vaccination.
La vaccination actuellement vise à administrer à une personne saine un produit qui mime une première rencontre avec un agent infectieux, sans entraîner d'infection. C'est-à-dire, si l'on fait un peu d'immunologie, faire passer une personne d'une réponse immunitaire dite primaire à une réponse immunitaire dite secondaire.
La réponse primaire correspond au type de réponse du système immunitaire lorsqu'il n'a encore jamais rencontré l'agent infectieux ; c'est une réponse d'efficacité moyenne, nécessitant un certain temps de latence après la rencontre de l'agent infectieux. La réponse secondaire est le type de réponse immunitaire observé lorsque le système immunitaire a déjà rencontré l'agent infectieux ; cette réponse est plus efficace et plus rapide, ce qui apporte une protection à la personne vaccinée vis-à-vis d'un agent pathogène.
Un aspect important dans la réponse immunitaire secondaire tient à l'effet mémoire. Lorsque l'on administre un vaccin à un individu, on lui permet de déployer une réponse extrêmement efficace en cas de rencontre du pathogène, et ce, sur le long terme, par l'induction d'une mémoire immunologique. Se pose alors le problème de la variabilité de la durée de cette mémoire en fonction des individus et des germes.
Par ailleurs, la tendance en vaccinologie est d'administrer un antigène seul, c'est-à-dire, pour l'expliquer simplement, un extrait du germe. Le plus souvent, l'antigène est synthétique. Il est préféré au germe entier atténué ou tué – une bactérie ou un virus – qui, dans de très rares cas, à la suite de son administration, pouvait recouvrer ses propriétés pathogènes. Injecter un antigène permet de s'affranchir de ce risque.
Il faut bien noter que les petites manifestations telles que la fièvre ou les douleurs articulaires observées à la suite d'une vaccination ne sont pas dues à la maladie contre laquelle le vaccin protège, mais à la stimulation du système immunitaire et à la réponse immunitaire qui s'en suit. Ces manifestations peuvent être soulagées par la simple prise de paracétamol.
Toutefois, dans le cas de l'administration d'un antigène seul, le peptide synthétique injecté n'induit pas toujours de réponse immunitaire efficace ; c'est pourquoi on utilise des adjuvants. La combinaison d'un adjuvant avec un antigène permet de stimuler la réponse immunitaire et de diriger cette réponse contre l'antigène inoculé. L'objectif étant de faire passer l'individu à une réponse immunitaire secondaire spécifique d'un agent pathogène d'emblée, si celui-ci était rencontré.
La question de l'existence de cas où le vaccin peut déclencher des maladies et notamment des maladies auto-immunes, a été posée. Une hypothèse est que, lorsque la réponse immunitaire est déclenchée, celle-ci ne soit pas spécifique de l'antigène – le peptide vaccinal – mais qu'elle se dirige contre un constituant du soi, c'est-à-dire un élément contre lequel le système immunitaire n'est pas censé se retourner – c'est la définition de la maladie auto-immune.
C'est donc un défi, pour la vaccination mais aussi pour l'immunothérapie, qui est de plus en plus utilisée pour le traitement de cancers et qui induit aussi artificiellement une réponse immunitaire, d'induire une réponse spécifique, contre un antigène et pas contre un constituant du soi.
Il y a eu des cas rapportés dans la littérature où des vaccins ont été responsables d'une réaction auto-immune ayant entraîné une maladie. Cela a été le cas pour un vaccin contre le virus H1N1, pour lequel ont été observés chez certains patients des épisodes de narcolepsie. Il faut bien noter que la narcolepsie n'est pas une maladie auto-immune, mais dans ces cas, il a néanmoins été montré que les symptômes avaient une origine auto-immune.
En revanche, les suspicions de scléroses en plaques dans le cas du vaccin contre l'hépatite B, pour lesquelles il y a eu des procès, n'ont jamais été avérées.
Il existe également une défiance liée aux adjuvants, concernant particulièrement ceux à base de sels d'aluminium. En France, certains chercheurs ont montré que l'accumulation de sels d'aluminium dans les tissus et, notamment au niveau des macrophages – cellules du système immunitaire – pouvait induire des manifestations neuromusculaires ou neurologiques. Ces travaux n'ont cependant pas été repris par d'autres scientifiques, alors qu'en sciences de la vie, il est considéré qu'un travail doit être répliqué pour être complètement validé.
Pour trancher ce débat, l'institut Cochrane va travailler de façon rétrospective, par le biais de méta-analyses, pour évaluer si des cas pathologiques peuvent être formellement liés à l'accumulation de sels d'aluminium. Pour information, on retrouve des sels d'aluminium dans d'autres produits, plus courants, comme les déodorants. Il ne s'agit là pas d'injection en l'espèce, mais il existe aussi d'autres produits, à l'instar de ceux utilisés dans les immunothérapies à base d'allergènes, qui sont injectés et qui, sur le long terme, constituent une source d'aluminium bien plus importante.
Je voudrais revenir sur la notion de protection : d'une part, la protection individuelle qu'offre la vaccination, d'autre part, la protection collective. Lorsque l'on vaccine quelqu'un, on le protège ; ce faisant, comme on l'aura empêché de contracter la maladie, on protège aussi son entourage. C'est en ce sens que l'on parle de « couverture vaccinale ». Si la couverture vaccinale est suffisante, elle empêche l'agent infectieux de se répandre dans la population, mais ce n'était pas le cas pour plusieurs vaccins, notamment celui contre la rougeole. On calcule qu'il faut une couverture vaccinale de 97 % dans le cas de la rougeole, alors que la couverture vaccinale en 2017 ne s'élevait qu'à 80 %, pour les enfants ayant eu le rappel.
Il ne faut pas oublier que la rougeole est une maladie potentiellement mortelle, et que, régulièrement, des gens en meurent. C'est donc un problème de santé publique, et le fait de rendre le vaccin obligatoire vise à obtenir une couverture vaccinale suffisante.
De même, le fait de différencier entre statut recommandé, d'une part, et obligatoire, d'autre part, laisse penser que certains vaccins sont moins importants que d'autres, comme si les maladies qu'ils entraînent étaient moins graves, ce qui est faux.
Il importe maintenant de réaliser un suivi des mesures prises pour évaluer leurs effets réels.
Depuis un an et demi, les résultats sont positifs : la couverture vaccinale est remontée pour le ROR (rougeole, oreillons, rubéole), pour le vaccin contre l'hépatite B également (+ 8 points).
Ce qui montre bien que le débat et la polémique ont finalement abouti à un résultat favorable. Le fait de partager de l'information sur ce thème a été très important. Il faut aussi remarquer qu'il n'y a pas eu, depuis cette mesure, d'augmentation des effets indésirables.
Il existe toutefois, si je puis dire, des « trous dans la raquette » de la vaccination. La grippe notamment n'est qu'un vaccin annuel, car les tentatives pour produire un vaccin universel qui pourrait protéger contre toutes les souches ont pour l'instant échoué et cela fait toujours l'objet de travaux de recherche. Des vaccins spécifiques sont donc produits, tous les ans, correspondant aux quatre souches présumées circulantes.
Un autre point est le fait que la grippe est une maladie grave à deux âges de la vie : chez les jeunes enfants et chez les personnes âgées. De plus, chez ces dernières – les seules pour lesquelles le vaccin est remboursé en France – l'efficacité en termes de protection vaccinale n'est pas très bonne, alors que ce sont elles qui sont le plus à risque. Se pose donc la question de savoir s'il faut également vacciner les enfants contre la grippe ou vivement recommander leur vaccination, ainsi que le personnel soignant de façon obligatoire. Pour les personnels soignants, l'aspect protection collective est effectivement à prendre en compte de façon primordiale puisqu'ils sont en contact avec des personnes dont la santé est fragile.
Je voudrais insister sur un autre point : le vaccin contre le papillomavirus est peu utilisé, alors que celui-ci est responsable de cancers du col de l'utérus, une pathologie fréquente, qu'on peut certes dépister, mais qui, tout de même, est grave. Le vaccin est maintenant remboursé par la Sécurité sociale, mais seulement pour les filles, alors que le virus est porté également par les garçons, qui peuvent le transmettre. Il faut aussi savoir que les garçons peuvent développer des cancers dus à ces souches de papillomavirus (HPV 18 et HP 16) ; c'est pourquoi nous préconisons la vaccination pour les garçons également, ainsi que son remboursement par la Sécurité sociale.
On note par ailleurs que la recherche n'a toujours pas abouti pour certains vaccins, comme ceux attendus contre le paludisme et contre le VIH.
Je voudrais terminer sur un point qui me paraît très important : la personnalisation de la vaccination. Lors de l'administration d'un peptide vaccinal, ce peptide est reconnu grâce aux cellules présentatrices de l'antigène, portant les récepteurs d'histocompatibilité, qui présentent l'antigène aux lymphocytes. Les récepteurs d'histocompatibilité sont encodés génétiquement (gènes HLA), et diffèrent d'une personne à l'autre. Lors du choix du peptide vaccinal, sa compatibilité avec toute la diversité des récepteurs d'histocompatibilité doit être vérifiée. Il faut aussi veiller à ce que la diversité génétique, notamment des habitants des pays en voie de développement – là où il y a le plus grand nombre d'individus atteints par des maladies infectieuses – soit dûment prise en compte dans l'élaboration des vaccins.
L'universalité des vaccins constitue un premier défi, la durée de la mémoire en est un autre. Je disais tout à l'heure que cette durée était variable d'un individu à l'autre et d'un pathogène à l'autre. Le fait que, après la grippe pandémique dite grippe espagnole en 1918-1920, des personnes soient restées protégées des virus grippaux pendant 80 ans après, tandis que d'autres ne le sont restées qu'une dizaine d'années, en constitue une bonne illustration, et cette différence doit être prise en compte. La baisse de l'immunité est d'ailleurs un des facteurs qui expliquent la résurgence de la rougeole.
– Merci pour ces premières conclusions intéressantes, ce bilan clairement positif un an et demi après une décision controversée. C'est un sujet qu'il conviendra de suivre à long terme.
La question de la politique vaccinale s'inscrit dans un large cadre et comprend les résultats en terme de santé publique mais il y a aussi une dimension qui relève de l'information, de l'image et de la confiance.
Sur ces sujets, on ne peut pas dissocier les questions de la recherche en laboratoire, de la diffusion de la connaissance et enfin de la façon dont on s'adapte au contexte, aux pratiques, aux préoccupations sociales.
A été mentionnée une meilleure acceptabilité des vaccins, grâce à la politique menée, à l'initiative de la ministre de la Santé. Cette acceptabilité sociale ne provient-elle pas du fait que les médecins, cette fois soutenus par la ministre chargée de la santé, étaient plus à même d'être entendus qu'antérieurement, quand, dans les médias, on donnait plus facilement la parole à ceux qui évoquaient les dangers des vaccins qu'aux autres ?
S'agissant du papillomavirus, j'ai vu se développer la controverse, en tant que membre de la commission des affaires sociales du Sénat pendant longtemps, portée notamment par un sénateur ancien secrétaire d'État à la santé. Dans sa position, être contre était assez étonnant, mais il s'en est suivi un coup d'arrêt complet de la vaccination contre le papillomavirus. Mes filles étaient à peu près à l'âge où l'on procède à cette vaccination, mais quand j'ai voulu les faire vacciner, même mon propre médecin était très prudent, ce qui témoigne de l'importance de la formation et de l'information des praticiens. Il fallait peut-être effectivement passer par cette phase d'extension des obligations vaccinales.
À cet égard, à l'étranger, on exige un certain nombre de rappels de vaccinations à l'entrée à l'université. Qu'en est-il en France ? On sait bien aussi que le développement et la réapparition de certaines maladies sont liés au fait que des personnes viennent de l'étranger sans être vaccinées.
A propos de l'absence de vaccin contre le paludisme, dans le prolongement de notre rapport pour l'Office sur les biotechnologies, j'ai reçu récemment, il y a quelques semaines, les représentants d'un laboratoire qui travaille sur plusieurs pistes de mise au point d'un vaccin sûr contre le paludisme. Il existe aussi d'autres techniques ; qui s'appuient sur le forçage génétique chez le moustique ; pour ma part, j'ai du mal à comprendre qu'on puisse craindre des conséquences sur les moustiques et pas sur les centaines de milliers de morts dues au paludisme.
En dernière remarque, je voudrais savoir si, dans les nombreuses références indiquées en fin de note, vous vous êtes référés au travail effectué pour l'Office sur les adjuvants vaccinaux par Corinne Bouchoux et Jean-Louis Touraine. En l'espèce, Corinne Bouchoux, qui était une élue « écolo », était venue devant notre commission des affaires sociales présenter ce rapport issu des auditions contradictoires organisées par l'Office sur le sujet. Je crois me souvenir qu'elle a été contestée au sein de la commission, y compris par les membres de son groupe politique, en raison de son approche trop anti-vaccination. Les choses semblent avoir un peu évolué, mais je crains que les progrès restent fragiles : il suffirait qu'une personne décède ou présente une maladie grave suite à une vaccination, et que cela fasse l'objet de beaucoup de publicité, pour anéantir tous les efforts faits. J'espère, je suis certaine même, que votre note scientifique présentée à trois parlementaires, contribuera à appuyer la politique vaccinale nécessaire. C'est, du moins en France, un travail permanent…
En réponse à plusieurs questions, je relèverai en premier lieu, sous forme de boutade, que le fait d'être secrétaire d'État à la santé ne suffit pas à donner toutes les compétences dans le domaine sanitaire.
Ce n'était en tout cas pas une raison pour s'opposer à la vaccination dans ce cas de figure. Quoi qu'il en soit, l'acceptabilité de la vaccination repose sur plusieurs points, dont l'obligation, qui constitue un peu le dernier recours. La ministre a eu le courage de le faire. Il faut avoir conscience qu'il s'agit d'un sujet de santé publique et d'épidémiologie : si le résultat obtenu depuis peu est fragile et peut être remis en cause par un seul cas de maladie développée à la suite d'une vaccination, à comparer à la protection de millions de personnes, il faut garder à l'esprit qu'il faut procéder par une approche statistique en termes de couverture vaccinale. Je ne dis pas qu'il faille accepter de sacrifier un individu pour l'ensemble des autres, mais l'approche doit être épidémiologique et s'inscrire dans une perspective de santé publique, même si ce serait extrêmement malheureux pour un individu donné de développer le cas échéant une maladie liée à une vaccination, – si tant est que cela soit effectivement le cas.
Ce débat est analogue à celui autour du déremboursement de l'homéopathie : il ne s'agit pas d'interdire l'homéopathie, mais à terme de ne plus la rembourser. Il y a eu un débat considérable : effectivement, l'homéopathie est considérée comme un traitement individuel, mais comme il s'agit de médicaments, il faut des tests de validation, fondés sur des études épidémiologiques sur de grands nombres de cas, permettant d'estimer l'efficacité thérapeutique sur une cohorte d'individus. Certains disent que ce type d'étude n'est pas adapté au cas de l'homéopathie, mais il demeure qu'il s'agit de médicaments qui, s'ils sont remboursés par la Sécurité sociale, doivent avoir prouvé leur efficacité.
Autre point essentiel, l'information : il n'y a rien de pire que de cacher la réalité au public, la transparence s'impose, notamment avec la publication à intervalles réguliers des résultats, en termes d'efficacité, de la politique vaccinale en France. Je vise les résultats concernant le niveau de protection de la population, donc le nombre d'individus protégés, mais aussi la diminution du nombre d'individus qui, vaccinés ou pas vaccinés, développent la maladie. Je pense en particulier à la rougeole et aux cas de personnes qui sont malades bien qu'elles aient été vaccinées. De manière générale, la recherche en vaccinologie est importante.
Enfin, s'agissant du vaccin contre le paludisme, cela fait des années que l'on nous dit qu'il est presque prêt…
Il faudra voir aussi à quel prix le futur vaccin sera vendu et comment il sera diffusé dans les pays qui en ont le plus besoin.
La question de l'accessibilité aux médicaments est essentielle, surtout dans un contexte dans lequel les faux médicaments sont légion.
- Merci pour cette note sur la politique vaccinale en France. On a remarqué, ces dernières années, que des maladies qui avaient disparu, en tout cas en France, réapparaissaient. Il faut prendre en considération le déplacement des populations, le réchauffement climatique, et tout ce qui accompagne ces phénomènes, plus généralement les personnes qui arrivent en France de l'étranger. Nous avons eu une discussion sur ce thème pendant le débat sur le projet de loi sur l'asile, avec l'idée qu'il faut que cette population soit couverte par la vaccination, parce que vacciner tout le monde ne sert pas qu'à protéger l'individu, mais aussi à prévenir des épidémies que nous ne souhaitons pas voir se développer. Aujourd'hui, pouvez-vous nous dire si la politique vaccinale de la France intègre ces aspects, ou bien nous cantonnons-nous à l'argument politique consistant à traiter d'abord les Français ?
Je répondrai en deux temps.
Première réponse : l'aide médicale d'État ; il y a eu des débats autour de ce sujet à l'Assemblée nationale, pendant la discussion du projet de loi pour une immigration maîtrisée et un droit d'asile effectif. Il y en aura vraisemblablement de nouveau au moment de la discussion du projet de loi de finances pour 2020 à l'automne.
Lorsqu'une personne a attrapé une maladie sur le territoire français ou y arrive déjà malade, la maladie ne connaît pas, ni identité, ni nationalité, ni couleur de peau, ni religion et se propage de façon tout à fait égalitaire et universelle. L'AME en l'occurrence me semble absolument indispensable, et c'est une vision à très court terme, ségrégationniste et débile, j'insiste sur ce dernier terme, que de dire qu'il faut soigner les Français et se désintéresser des autres : si on ne soigne pas les autres, ils peuvent contaminer les Français et donc ce serait complètement paradoxal.
Par ailleurs, nous avons une tradition universaliste à la Henri Dunant : je pense que lorsqu'un pays a les moyens, comme la France, il doit soigner tout le monde, même ses ennemis, en suivant ainsi un principe qui fait partie du serment que j'ai prêté et auquel je suis très attaché.
Est-ce qu'il y a une politique vaccinale systématique pour les personnes qui entrent, même de façon clandestine, dans notre pays ? Je ne sais pas, il faut que nous interrogions le Gouvernement à ce sujet, mais je souligne que les maladies dont souffrent les migrants peuvent aussi avoir été attrapées en France. La vaccination est absolument indispensable, y compris pour les personnes qui arrivent sur notre territoire, clandestinement ou pas. Vis-à-vis de la politique d'immigration et d'asile en France, il faut vacciner tout le monde.
Lorsque l'on revient aux conditions de promiscuité du XIXe siècle, voire même avant, le manque d'hygiène conduit au retour de la tuberculose par exemple, qui avait totalement disparu. Il faut tenir compte également de l'immuno-dépression, liée à la malnutrition, etc. Il faut prévoir une politique de santé pour l'immigration et, le cas échéant, réfléchir à un amendement pour le PLFSS 2020.
Est-ce qu'on envisage par exemple que quelqu'un qui bénéficie de l'AME soit automatiquement vacciné pour les vaccins obligatoires, quel que soit son âge ?
Chers collègues, j'en viens aux recommandations qui concluent cette note.
En premier lieu, il pourrait y avoir l'instauration d'un examen annuel de la stratégie vaccinale, pour mieux prendre en compte l'avancée des connaissances, tant dans la propagation des maladies infectieuses que dans l'optimisation de la stratégie vaccinale. Aussi bien pour ce qui est de l'avancée des connaissances que pour l'optimisation de la stratégie vaccinale, on a vu, après une année de mise en oeuvre, de premières évolutions sensibles, que nous devons continuer à surveiller.
Le cas échéant, il faudrait envisager d'étendre les recommandations (avec remboursement) ou obligations, notamment pour les vaccins contre la grippe et contre la rougeole pour le corps médical.
Il faut bien sûr poursuivre les efforts de transparence et de pharmacovigilance, notamment avec la recherche d'une meilleure déclaration des effets indésirables, dont on pense que 80 à 95 % ne seraient pas déclarés.
Enfin, il convient de mieux suivre les vaccinations, notamment dans les écoles et les crèches, à quoi contribuerait la mise en place d'un carnet de vaccination dématérialisé.
Autant de sujets, de questions qui viennent dans le sillage de notre note.
J'ajouterais qu'a été exprimé le souhait d'organiser une audition publique, cet automne, sur le thème de l'hésitation vaccinale, notamment avec des sociologues, des psychologues, pour examiner les mécanismes qui conduisent à douter des vaccins, les stratégies de messages pro-vaccinaux à envisager par différents canaux, l'examen de ce qui a été réalisé par des réseaux sociaux pour limiter les fake-news antivaccinales par exemple.
La communication de Facebook sur la limitation de propagation de telles fake news nous conduit à nous demander comment se met en place cette nouvelle politique des réseaux sociaux. Il faudrait également inviter de bons vulgarisateurs scientifiques. Au-delà des recommandations de bon sens que je viens de présenter, cela nous permettrait de parachever le travail entamé avec cette note scientifique et d'apporter une réelle réévaluation par l'Office du virage de la politique vaccinale négocié à l'automne dernier.
Pour information, je signale un récent article mentionnant une campagne de vaccination contre le paludisme chez les enfants de moins de 5 ans au Malawi. Si l'on fait une campagne centrée sur les enfants, c'est sans doute que l'on pourrait se rapprocher du but.
Je voudrais ajouter que je souhaiterais que nous puissions travailler sur la thématique de la phagothérapie, qui fait l'objet de nombreux articles. Ce sujet n'est pas lié à la vaccination, mais plutôt à celui de la résistance aux antibiotiques et donc de leur avenir.
Nous pourrions organiser une audition publique sur ce thème, ou préparer une note scientifique, ou envisager une séquence combinant les deux. La question peut toutefois se poser de l'élargissement du sujet à l'antibiorésistance.
La phagothérapie consiste à utiliser des virus bactériophages pour tuer des bactéries responsables de maladies. Quid toutefois de l'innocuité du virus introduit dans le corps du patient ? Ce serait intéressant en tout cas de publier une note sur le sujet.
Mes chers collègues, il convient maintenant de statuer sur la publication du projet de note n° 17 ?
La publication de la note scientifique n° 17 sur la politique vaccinale en France est autorisée.
Avec le feu d'artifice final que représentent ces cinq notes scientifiques numérotées de 14 à 18, se concluent nos travaux au titre de cette session parlementaire.
À la rentrée, s'ouvriront de nouvelles perspectives, avec notamment la phagothérapie, la résistance aux antibiotiques, notre projet de colloque parlementaire sur le conseil scientifique au politique et un certain nombre d'autres sujets.
Notre prochaine réunion aura en principe lieu le 26 septembre avec un bilan de la mise en place du plan Intelligence artificielle par le Gouvernement, qui nous sera présenté par Bertrand Pailhès, coordinateur interministériel sur l'intelligence artificielle.
Je profite de l'occasion pour remercier tous les collègues qui ont dépensé de l'énergie et du temps pour nos travaux, toute l'équipe du secrétariat de l'Office qui n'a pas ménagé ses efforts. Je ferai une mention spéciale pour nos nouveaux conseillers scientifiques, qui ont travaillé sur les notes scientifiques de ce matin, et dont le soutien est très vite apparu très précieux, de même que l'apport de nos valeureux stagiaires.
Je signale également que notre remarquable audition contradictoire d'hier soir sur le réacteur de Flamanville n'est pas passée inaperçue, les médias l'ayant mise en valeur dès tôt ce matin.
Nous avons quatre études en cours :
– une saisine par la commission de la culture, de l'éducation et de la communication du Sénat sur l'intégrité et les publications scientifiques,
– une saisine par la commission des affaires économiques du Sénat sur la valorisation énergétique des terres agricoles,
– une saisine par la commission de l'aménagement du territoire et du développement durable du Sénat sur la pollution plastique,
– et une étude, prévue par la loi, pour évaluer le plan national de gestion des matières et déchets radioactifs (PNGMDR) 2019-2021.
Par ailleurs, Huguette Tiegna travaille sur une note scientifique sur les enjeux sanitaires du cannabis, Michel Amiel prépare une note scientifique sur les neurosciences et la responsabilité pénale des mineurs, et Jean-Luc Fugit une note sur les satellites et leurs applications. Nous pouvons envisager d'autres notes scientifiques également.
En conclusion, je vous souhaite de bonnes vacances à toutes et tous et vous donne rendez-vous à la rentrée.
La réunion est close à 12 h 25.
Membres présents ou excusés
Réunion du jeudi 18 juillet 2019 à 9 heures
Députés
Présents.- M. Didier Baichère, M. Jean-François Eliaou, Mme Anne Genetet, Mme Huguette Tiegna, M. Cédric Villani
Excusés.- M. Philippe Bolo, M. Christophe Bouillon
Sénateurs
Présents.- M. Jérôme Bignon, M. Gérard Longuet, Mme Catherine Procaccia, M. Bruno Sido
Excusés.- Mme Laure Darcos, Mme Véronique Guillotin, Mme Florence Lassarade