Office parlementaire d'évaluation des choix scientifiques et technologiques
Jeudi 1er juillet 2021
La réunion est ouverte à 9 h 35.
Audition de Gérard Roucairol, Albert Benveniste et Laurent Gouzenes, auteurs du rapport de l'Académie des technologies sur « COVID-19 : Modélisations et données pour la gestion de crises sanitaires »
Je vous souhaite la bienvenue à cette nouvelle réunion de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST). Notre ordre du jour prévoit en premier lieu une audition qui me réjouit particulièrement en ma qualité de membre de l'Académie des sciences, puisqu'elle va nous permettre d'entendre les auteurs du rapport publié en avril dernier par l'Académie des technologies, sous le titre COVID-19 : Modélisations et données pour la gestion de crises sanitaires.
C'est un sujet qui n'est pas étranger à l'Office : au printemps dernier, j'avais présenté devant lui une note introduisant les principaux concepts, les apports et limites de la modélisation des épidémies. J'ai été très impressionné, à la fois comme scientifique et comme homme politique, de voir à quel point certains concepts essentiels d'épidémiologie ont été intégrés dans le débat public, des notions telles que le coefficient de reproduction s'invitant dans les discours, tant de la Chancelière allemande que du Premier ministre français. C'est la première fois que, dans ma carrière de mathématicien, je vois un paramètre d'un modèle mathématique prendre place dans des discours politiques du plus haut niveau et être présenté comme un enjeu de salut du public, si je puis dire.
J'espère que cela a contribué à redorer le blason des scientifiques dans la crise, dans un contexte où les débats et les discours contradictoires, souvent mis en scène, n'ont pas toujours été bien compris ni par la sphère journalistique ni par les citoyens.
Bien évidemment, le rapport de l'Académie des technologies va beaucoup plus loin que la note qui avait été présentée à l'OPECST. Il se veut un retour d'expérience pragmatique sur la gestion de crise en France, en Europe et dans le monde, avec des clés pour évaluer les stratégies mises en place ici et là et les enseignements à en tirer ; j'imagine que vous nous parlerez de la plateforme Crisis Model Hub.
Nous avons le plaisir de recevoir aujourd'hui trois représentants du groupe de travail constitué par l'Académie des technologies pour rédiger le rapport dont j'ai parlé en ouvrant la séance. À titre personnel, j'ai eu l'occasion de côtoyer à bien des reprises dans diverses instances Gérard Roucairol, qui a été président de l'Académie des technologies, membre du Conseil scientifique de l'Office ainsi que directeur scientifique de la recherche du groupe Bull pendant 24 ans, de 1984 à 2008. Il a aussi été président de l'association Teratec, à l'origine de la première technopole en Europe consacrée à la conception et à la simulation numérique à très haute performance, ainsi que d'un salon que j'ai eu le plaisir de fréquenter à plusieurs reprises.
Aux côtés de Gérard Roucairol, interviendra Albert Benveniste, directeur de recherche à l'Institut national de recherche en informatique et en automatique (INRIA), spécialiste de la modélisation des systèmes physiques. L'une de ses dernières publications s'intitule Fondements mathématiques des langages de modélisation des systèmes physiques, avec beaucoup de mots-clés qui me parlent. Albert Benveniste et moi-même nous sommes retrouvés à plusieurs reprises dans divers conseils scientifiques, notamment celui d'Orange.
Nous accueillons aussi Laurent Gouzènes qui a plus de trois décennies d'expérience professionnelle dans le monde de l'innovation et de la recherche. Il fut directeur technique et scientifique de plusieurs entreprises, notamment pendant 18 ans au sein de la pépite STMicroelectronics où il fut chargé du développement des concepts de pôles de compétitivité et de la mise en œuvre de grands programmes comme le montage des projets de l'usine de Crolles 2 et Rousset 2000. Il a aussi été président du comité de financement de l'innovation du Mouvement des entreprises de France (MEDEF). Nous avons eu l'occasion de nous croiser, en particulier dans le cadre du MEDEF, et de discuter sur des questions telles que : « comment la science et le monde de l'entreprise peuvent-ils avancer de concert sur les questions d'innovation ? » Depuis plus de six ans, Laurent Gouzènes est associé de la société de conseil KM2 qui met au point des méthodes et outils de productivité pour la gestion de connaissances et de processus. Lui aussi a été membre du conseil scientifique de l'Office voici une quinzaine d'années.
En ma qualité de président du pôle numérique de l'Académie des technologies, je rappelle qu'une des missions que nous nous sommes fixées consiste à essayer d'apporter notre expérience et nos compétences pour revenir, au-delà des mots, des images voire du buzz médiatique si fréquent dans le domaine du numérique, sur ce qui est important et profond dans les technologies numériques qui ne cessent d'émerger.
Ainsi, nous nous posons en ce moment des questions sur les matériaux qui seront utilisés par le numérique du futur – ceci concerne l'informatique quantique certes, mais quel quantique ? – et, au-delà du quantique, sur la façon dont le vivant peut y contribuer. Les choses bougent beaucoup dans ce domaine. Nous nous posons aussi d'autres questions telles que : jusqu'à quel point pouvons-nous faire confiance à l'intelligence artificielle et, en particulier, à l'apprentissage automatique qui supporte cette vague de l'intelligence artificielle ?
Le rapport qui va être présenté par Albert Benveniste et Laurent Gouzènes est parti du constat que vous avez relevé dans votre propos introductif, monsieur le président. Le mot « modélisation » a émergé dans le débat public à partir de ce que les épidémiologistes faisaient et une sorte de prise de conscience a eu lieu selon laquelle un modèle mathématique d'une épidémie pouvait exister et permettre de la prédiction.
La question que nous nous sommes posée dans ce contexte est double. D'une part, les modèles dont nous disposons pour modéliser, estimer et prédire la propagation de l'épidémie sont de bons modèles mais faut-il les compléter ou non ? Généralement, des modèles très similaires sont mis en œuvre pour la contamination des plantes, des individus ou des animaux. Comment peut-on plus spécifiquement faire entrer l'homme dans ces modèles ?
Ensuite, tout le monde l'a dit, l'on ne peut complètement gérer une crise que si sont pris en compte des éléments autres que sanitaires : des aspects sociaux, logistiques, psychologiques ou sociologiques, etc. Pouvons-nous modéliser les aspects économiques ? Pouvons-nous faire en sorte que tous ces modèles coopèrent entre eux et servent de base à la décision politique ?
La crise du Covid est une crise globale, une crise de santé qui se transforme en crise de société. À cette occasion, pour la première fois, la population dans son ensemble a pris conscience de l'importance des modèles, ici de l'épidémiologie, comme moyen d'aide à la décision. C'est un fait assez nouveau, qui est apparu avec la thématique du changement climatique mais, dans ce contexte-là, l'échelle de temps ne permet pas de savoir si les prévisions sont utiles et fiables. Un modèle climatique parle de ce qu'il se passera dans 50 ans et personne ne peut confronter les prévisions à la réalité. Dans cette crise sanitaire, au contraire, l'échelle de temps fait que les gens ont pu comparer les prévisions aux faits. Anticiper devient un enjeu clé pour les gouvernants.
La deuxième remarque est que gérer une crise consiste à prévoir l'imprévisible mais oblige aussi à improviser parce que l'imprévisible ne se prépare pas à l'avance. Improviser, malheureusement, cela ne s'improvise pas ! Il faut donc être préparé à improviser « comme il faut ». Nous verrons ce que cela signifie.
Se préparer pour la crise d'après ne marche pas, et il est intéressant de se souvenir de ce qu'il s'est passé avec la crise des masques. Les pénuries de masques ont souvent été reprochées aux gouvernements, à celui-ci comme aux précédents. C'est une illustration de ce qu'il se passe chaque fois que l'on veut se préparer pour la crise d'après : nous nous préparons d'après les leçons d'une crise précédente. Ces préparatifs entrent ensuite en sommeil et, comme tout ce qui entre en sommeil, ils finissent par entrer dans l'obsolescence. C'est ce qu'il s'est passé et, d'une certaine manière, c'est assez normal et ce n'est pas vraiment une faute de gouvernement.
Une conclusion importante à tirer est qu'il ne faut pas préparer les masques pour la prochaine crise mais qu'il faut gérer la crise sur la base d'outils et de méthodes qui sont utilisés en continu, pas seulement en situation de crise. Ainsi, ils restent en éveil.
J'indique en bleu dans la présentation qui est projetée sur vos écrans que nous nous sommes interrogés sur l'organisation de l'État. Nous ne sommes pas parvenus à des conclusions claires et, pour gagner du temps, je n'en parlerai pas.
Nous pourrons en reparler, sachant que nous sommes nous aussi confrontés à ces interrogations assez régulièrement. Un État est forcément quelque chose qui garde sa part de mystère.
Le point important, le principal constat, est que les industriels des systèmes critiques – aéronautique, etc. – gèrent les crises avec le même type d'outils que ceux qu'ils utilisent pour concevoir ces systèmes. C'est cela que je vais passer en revue, en vous rendant compte des entretiens que nous avons réalisés avec quelques grands industriels.
Une leçon préliminaire de ces entretiens est que les données constituent une première difficulté. Vous voyez sur ces planches des données très variées qui ont toutes été utiles pour ajuster les modèles épidémiologiques, en particulier les données des opérateurs télécoms, utilisées pour connaître la mobilité des populations. Elles ont aidé à déterminer la compartimentation de modèles compartimentaux SIR et ont permis de comprendre comment les catégories de population devaient être entrées dans les divers compartiments du modèle. Les données Google sont intéressantes en ce qu'elles font apparaître, sur la courbe « travail en présentiel », une plongée deux semaines avant la barre verticale relative à l'utilisation des transports, en anticipation des obligations de confinement. La capacité d'anticipation est un facteur humain qui s'est révélé important. Ceci illustre le fait que le sujet ne se réduit pas à l'obéissance aux règles mais qu'il existe un comportement anticipatif et réactif des populations sur lequel nous reviendrons. D'autres données portent sur les mesures relatives au matériel génétique du virus présent dans les eaux usées et la corrélation qui a pu être établie avec la propagation du virus.
Dans la planche suivante, une courbe montre la chute du taux de positivité des tests intervenue pendant les congés de Noël 2020. C'est juste un artefact dû au comportement de la population qui s'est plus fait tester à cette époque qu'à d'autres. Ceci illustre le fait que l'utilisation brute des données est compliquée et que de nombreux prétraitements sont nécessaires. Ils ne sont pas purement statistiques mais consistent aussi à injecter toutes sortes d'informations latérales. Le processus d'analyse en est donc un peu compliqué.
Passons au point le plus important, c'est-à-dire les résultats des entretiens avec trois grands industriels, Dassault Systèmes, Thalès et IBM, ainsi que deux start-up, CausalityLink et OpenHealth qui est notamment intervenu sur les eaux usées avec le réseau COMETE et les pompiers de Marseille.
Une équipe d'IBM Paris, des anciens d'iLog, a conçu un prototype, développé très rapidement avec des moyens modernes et la technologie « notebook », pour héberger un grand nombre d'algorithmes en explicitant leur enchaînement et en expliquant ce qui est fait.
Cinq parties sont suivies et enchaînées dans ce notebook, depuis l'acquisition des données à partir de sites diffusant des données publiques jusqu'à la représentation de la situation sur une carte pour prédire l'apparition de nouveaux cas dans les départements et planifier les transferts de malades entre hôpitaux, ce point étant l'objet de ce problème d'optimisation en recherche opérationnelle. Pour l'affichage des solutions, l'équipe a simplement utilisé un outil sur étagère, Google Maps, qui est un service Web couramment utilisé pour ce genre de visualisation.
Quels sont les leçons à en tirer ? Le produit final est une application de logistique dont le cœur algorithmique est l'outil d'optimisation CPLEX, développé à l'origine par iLog et maintenant commercialisé et développé par IBM. Cette application utilise de nombreuses techniques logicielles modernes qui permettent la réutilisation de composants algorithmiques préexistants et s'appuient sur de multiples apports du Web pour les données d'entrée et pour les retours ergonomiques, dont la carte.
Il s'agit d'un prototypage rapide, un travail réalisé en un ou deux mois. L'équipe a parfaitement identifié les verrous à lever pour en faire un vrai outil opérationnel. Le premier verrou consiste à réduire le coût de modélisation. Le plus coûteux en algorithmique fondée sur les modèles est la construction du modèle, qui représente typiquement 90 ou 95 % du coût, c'est-à-dire bien plus que le développement du logiciel lui-même. Pour réduire le coût de modélisation, un prototype d'assistant d'aide à la modélisation a été développé, qui a permis de créer un traducteur depuis des règles exprimées en langage naturel vers des contraintes exprimées dans le langage de l'outil CPLEX d'optimisation combinatoire.
Le deuxième verrou est la collecte de l'expertise. L'équipe a esquissé un cahier des charges, avec en particulier la collecte de toutes les règles qu'il faut expliciter pour planifier les transferts. Un transfert ne se fait pas n'importe comment : il existe des règles de nature hospitalière et sanitaire et des contraintes de nature logistique. Il faut donc collecter de nombreuses informations qui viennent de données différentes, ce qui est une difficulté.
Qu'entend-on ici par « règle » ? Quel pourrait être un exemple de règle à introduire dans le modèle ?
Cela peut être qu'il faut un certain temps de préparation entre le moment où l'on décide quel site hospitalier doit être déchargé et la préparation des malades proprement dite. Il faut aussi prévoir de respecter un certain nombre de conditions pour pouvoir les transférer. Les règles de bonne conduite sanitaire introduisent par exemple des délais ou des contraintes dans les possibilités de transport, imposent de disposer d'un certain type de transport et donc de vérifier qu'il est disponible entre le point d'où l'on fait partir les malades et le point où ils sont accueillis.
Il s'agit donc des règles de bonne conduite et des contraintes légales ou sanitaires pour que les malades soient accueillis conformément aux protocoles établis.
Tout à fait. La collecte de ces règles et le fait de pouvoir les exprimer dans un idiome compris par les experts du domaine sont évidemment une grande difficulté. Il faut ensuite un outil de traduction vers l'outil algorithmique, qui parle un autre langage.
Les concepteurs ont voulu faire ce démonstrateur parce que, contrairement à l'intelligence artificielle, l'optimisation, et en particulier l'optimisation combinatoire et la recherche opérationnelle, n'est pas un de ces sujets à la mode qu'il est facile de faire avaliser par les décideurs, qu'ils soient industriels ou politiques.
Voici donc cette première leçon de nos entretiens.
Pour que tout soit bien clair, le projet comporte une partie combinatoire qui est un problème d'optimisation où il faut vérifier l'existence d'une solution et classer les solutions. Il comporte aussi une partie traduction : celle-ci relève-t-elle ou non de l'intelligence artificielle (IA) ?
La partie traduction traite du langage naturel donc relève de l'IA si l'on veut, mais ce n'est pas de l'apprentissage. Cet aspect n'est pas très développé. Effectivement, comme la saisie est en langage naturel, un traitement du langage intervient.
Voilà, c'est exactement cela !
Je passe à l'analyse de situation avec un entretien effectué auprès de Thalès. Nous avons tout de suite pensé à Thalès lorsque nous nous sommes demandé quel industriel solliciter. En effet, le traitement des crises fait partie du portefeuille des gens du secteur militaire. Thalès nous a répondu avoir une activité de plateforme de sécurité. Leur outil s'appelle Security Digital Platform (SDP) ; ils s'en servent pour leur activité industrielle et l'ont aussi expérimenté pour aider à la gestion de la crise sanitaire.
La planche qui vous est projetée montre les divers cas d'usage auxquels l'équipe Thalès s'est intéressée pour le Covid. Elle a fait de la surveillance de clusters à partir de collecte et d'analyse de données et du repérage de signaux faibles. Ils ont abordé l'aspect collecte des informations de déplacement, similaire à ce que nous avons vu précédemment pour les données Orange, avec report dans les modèles compartimentaux SIR. Ils ont fait de la corrélation entre indicateurs, par exemple avec les données d'eaux usées. Ils ont aussi travaillé sur la mobilisation des indicateurs rapides pour prévoir le comportement des indicateurs lents, et développé une approche par scénarios pour voir l'impact sur la pandémie des décisions pouvant être prises par les pouvoirs publics. Les principales dimensions abordées sont l'intelligence artificielle et les données, un point fort du groupe Thalès.
Quels sont les avantages clés de cette approche plateforme ? Pourquoi, d'ailleurs, est-ce que j'utilise le mot « plateforme » ? Parce qu'il s'agit essentiellement d'une plateforme logicielle permettant d'intégrer divers composants algorithmiques très largement disponibles sur étagère. Les équipes de Thalès développent très peu de nouveaux composants lorsqu'elles ont à traiter une nouvelle demande d'un client. La plateforme SDP a par exemple été utilisée pour le traitement de la sécurité dans la ville de Mexico et la gestion de l'aéroport de Dubaï. Ces deux exemples ont été des marchés importants pour Thalès et il en existe une dizaine de même nature. Je crois qu'ils se sont aussi occupés des cérémonies à la Mecque.
Il faut savoir que Thalès est capable de déployer son outil dans un délai de l'ordre d'un mois après réception de la demande – c'est parfois même quelques jours pour un traitement en urgence. Le principal problème est d'assurer la collecte des données disponibles. C'est ce qui prend le plus de temps puisqu'il faut se débrouiller avec les données telles qu'elles sont et en faire le meilleur usage.
Un avantage de l'outil « plateforme » est qu'il impose de ne passer à côté d'aucun point important : il oblige à prendre en compte toutes les facettes possibles du problème, pas seulement celles qui sautent aux yeux. Il faut évidemment être aussi précis que possible dans la qualité de la modélisation, et l'outil permet alors de prédire l'effet de décisions avec l'approche par scénarios.
Nos interlocuteurs ont beaucoup insisté sur le fait que les plateformes de ce type sont une « force de collaboration » : leur utilisation permet de réunir des personnes de communautés, de moyens, de types de pensée, de disciplines et de profils tout à fait différents, pour les faire travailler ensemble. Elles favorisent chez les participants une attitude collaborative, ce qui est un point important.
Le troisième entretien, avec les équipes de Dassault Systèmes, met l'accent sur l'aspect « modèle ». En matière épidémiologique, la modélisation repose notamment sur les modèles SIR qui sont des systèmes d'équations différentielles, voire d'équations aux dérivées partielles si le compartimentage a été très finement réalisé.
L'équipe de Dassault Systèmes a procédé à une expérimentation en généralisant la démarche de modélisation à divers facteurs dont nous avions noté l'importance : il y a évidemment l'aspect purement épidémiologique autour de la propagation du virus, mais aussi, parmi les moyens de gérer la crise, les contraintes logistiques, tant au niveau des masques et des tests qu'au niveau de la vaccination. Comment prendre en compte ces différents éléments ? Les décisions en matière de confinement ont des impacts économiques ; est-il possible de les prédire ? Tous ces aspects peuvent être intégrés dans une modélisation qui prend en compte la multiplicité de ces acteurs.
Cette plateforme est l'une des plus remarquables qui soit et Dassault Systèmes est vraiment un champion mondial. Il n'existe dans le monde qu'un tout petit nombre d'entreprises capable de construire des outils de ce niveau, dont deux en Europe : Dassault Systèmes et Siemens.
Le système est basé sur la plateforme 3DEXPERIENCE qui permet de combiner des types de modélisation différents dans ce que Dassault Systèmes a coutume d'appeler une « approche cockpit » : elle réunit dans un même environnement de nombreux cadres de modélisation de données et d'affichage des résultats en utilisant le concept de jumeau numérique, c'est-à-dire une reproduction numérique de situations ou de phénomènes de nature physique ou paraphysique, si l'on peut dire.
Ils ont ainsi développé pour la région Est un service nommé Inesia, conjointement avec l'université de Strasbourg, dans le cadre d'une expérience sur le Covid.
Il faut comprendre que la plateforme 3DEXPERIENCE va un peu plus loin que ce qui a été réalisé dans le cadre de la plateforme de Thalès puisque la dimension « plateforme » n'est pas une infrastructure logicielle au sens de la programmation mais une infrastructure de nature mathématique. En effet, le cœur d'aide à la modélisation est un langage mathématique qui s'exprime directement en termes de systèmes d'équations différentielles, le fameux langage Modelica. Il permet d'écrire à la fois des systèmes d'équations différentielles algébriques et des systèmes d'agents qui sont des automates interagissant en temps discret. Il est donc possible de travailler en temps discret ou en temps continu et d'interfacer l'ensemble avec des algorithmes d'apprentissage pour caler les modèles.
Dymola est un outil construit au-dessus du langage Modelica. C'est l'outil de Dassault Systèmes.
Le langage Modelica a une syntaxe permettant de décrire le modèle directement sous forme d'équations différentielles. Il contient une bibliothèque de modèles prédéfinis.
C'est une invention suédoise achetée par Dassault Systèmes.
Ce langage remonte aux années 1970. Le système a été développé à l'université de Lund, par le professeur Åström.
Comme médecin, comme pédiatre, je suis très intéressée par le système de modélisation des transferts de malades. Nous le vivons actuellement en situation de crise mais en situation habituelle, les médecins d'urgence, néonatale ou autre, perdent un temps fou à programmer et à organiser les transports, en particulier la nuit quand personne n'est disponible. C'est usant et cela ne permet pas une bonne prise en charge du patient. Je me demandais donc si l'on ne pourrait pas imaginer une modélisation des transferts de nouveau-nés ou de patients Covid ou d'autres patients. Ce serait un outil essentiel pour les urgences où les médecins urgentistes passent une partie de leur temps à trouver des places d'hôpital et des moyens de transfert.
L'exemple de développement réalisé chez IBM était directement axé sur ce sujet donc beaucoup plus spécifique que ce que je vais vous présenter maintenant, fait par Dassault. Je rappelle que l'une des difficultés principales est d'entrer les règles de bonne conduite et de bonne gestion auxquelles les services sont confrontés quand ils veulent procéder à ce type de transfert ou d'intervention.
Il faudrait voir ceci de plus près. Il est peut-être possible de vous faire rencontrer les personnes qui ont réalisé ce développement afin que vous étudiiez plus spécifiquement ce qu'ils ont fait.
Dassault Systèmes a construit sur la base de son outil une modélisation globale du système de santé français en situation de crise Covid.
La planche projetée actuellement montre les quatre volets de leur outil : la demande qui est typiquement liée à la situation épidémiologique, l'offre de santé, les politiques qui sont les contraintes de confinement et autres règles imposées par le Gouvernement, et l'impact sur l'économie. Voici un zoom sur le volet « demande » : il montre un raffinement croissant, avec des boîtes de plus en plus précises pour aboutir in fine à ce fameux texte dans le langage Modelica dont j'ai précédemment parlé, c'est-à-dire des équations ou des algorithmes. La prévision d'impacts sur l'économie est également prévue.
Ce type de modèle est relativement unique par son envergure. Un autre exemple a été réalisé aux États-Unis, ReThink Health. Le modèle de Dassault Systèmes a été ajusté sur des données publiques. Il permet de faire de l'optimisation et des scénarios pour explorer les conséquences des décisions susceptibles d'être prises.
La plateforme de Dassault est particulièrement impressionnante dans sa dimension collaborative. Celle-ci est essentielle par exemple chez un donneur d'ordres comme Airbus qui doit faire travailler ensemble des sous-traitants importants, sans qu'il soit nécessaire que chacun connaisse la totalité du projet. La question est donc : est-il possible de montrer à chacun des contributeurs du projet les données dont il doit connaître, de lui permettre d'intervenir sur les leviers qu'il doit manipuler et d'être capable de filtrer l'accès aux données, permettant ainsi un travail collaboratif dans un environnement qui n'est pas forcément celui de Visoon. C'est un des points particulièrement remarquables dans ce type de plateforme de modélisation.
Il reste évidemment des questions : qui est capable de maîtriser une telle approche ? Pour l'instant, ce genre d'outil est plutôt conçu pour des spécialistes. Comment en « dégraisser » tel ou tel aspect pour en faciliter l'utilisation, quitte à avoir une voilure un peu réduite ? Comment utiliser la plateforme pour permettre aux autorités politiques de communiquer ? Il s'agirait alors de ne pas s'en servir seulement pour élaborer des décisions mais aussi pour expliquer pourquoi telle décision a été prise ; ceci serait très utile pour amoindrir cet effet « girouette » qui peut apparaître lorsque les pouvoirs publics changent de position parce que la situation a un peu changé et qu'un basculement entre deux décisions devient inévitable.
Le dernier exemple tiré de nos entretiens, bien que complètement différent, est lui aussi tout à fait remarquable. Il s'agit d'une petite et moyenne entreprise (PME) californienne dont Pierre Haren est le patron. C'est un Français, membre de l'Académie des technologies, lui aussi ancien d'iLog.
Il a développé avec ses collaborateurs un système qui s'occupe de trouver des corrélations entre faits et évènements. Je parle bien de corrélations et non de causalités. Les causalités peuvent être postulées et il est possible, à l'aide de statistiques, de les valider ou les invalider, c'est-à-dire de voir si telle hypothèse de causalité est effectivement compatible avec ce que nous observons ou non. On ne découvre pas des causalités simplement à partir de l'analyse de flux statistiques. Une branche entière des statistiques s'occupe de la causalité. Judea Pearl travaille sur ce sujet depuis les années 1980 et est toujours actif. Il a développé le concept qu'illustre la planche actuellement projetée, à savoir les réseaux causaux ou réseaux bayésiens. Ils permettent de décrire des causalités entre des faits de natures différentes et de déduire des probabilités d'occurrence d'un « fait conséquence » sachant qu'un « fait cause » s'est déroulé. C'est typiquement ce que signifie ce type de de graphe.
La société CausalityLink développe un outil dont le débouché principal est les salles de marché. Les financiers souhaitent prédire des cours de bourse à partir de faits observés dans le monde réel et le monde économique. Typiquement, si la Chine se met à accélérer le rythme des constructions, cela provoque une consommation d'acier en raison de l'armature du béton ce qui fait monter le prix de l'acier et ce renchérissement de l'acier a un impact sur les profits de General Motors qui, en retour, ne peut pas augmenter aussi vite le prix de ses voitures.
Ce genre de causalité peut être inféré par des analystes et se retrouver dans des flux d'information mis en ligne sur le Web dans le monde entier. L'outil de CausalityLink traite 24 langues ce qui lui donne accès à un réservoir d'informations incomparable. Il enchaîne des déductions pour obtenir de longues chaînes de causalités qui sont normalement inaccessibles au raisonnement humain. Cet enchaînement de petits raisonnements humains de causalités permet d'obtenir des informations vraiment nouvelles. L'outil complète ces causalités par des informations quantitatives qu'ils agrègent pour en tirer des indicateurs.
CausalityLink a commencé à produire des prévisions sur les secteurs impactés par la Covid au printemps 2020, donc voici un peu plus d'un an. La planche actuellement projetée montre la comparaison entre ces prévisions et la situation observée, selon les différents secteurs industriels impactés.
Ce système utilise beaucoup d'analyse de texte et beaucoup de raisonnements de type inférence causale, donc de réseaux bayésiens.
Le groupe de travail de l'Académie a abordé une autre dimension du sujet, car s'intéresser à la seule propagation du virus n'est pas suffisant. En effet, la propagation d'un virus dans une population humaine provoque des conséquences qui dépendent de l'état de santé de la population ainsi que des comportements qu'elle adopte ; il y a donc interaction et rétroaction entre les développements épidémiques et les comportements. Les épidémiologistes en ont tenu compte pour adapter leurs modèles en les compartimentant selon les typologies de population et en calant sur les données observées les divers coefficients des équations différentielles pour chacun de ces compartiments.
Laurent Gouzènes développera certainement le paradoxe de la conduite automobile en regardant dans le rétroviseur… C'est le principe de cette approche : en regardant ce qu'il s'est passé dans les trois ou quatre semaines précédentes, on peut recaler les paramètres des modèles compartimentés puis utiliser le modèle ainsi recalé sur les données les plus récentes pour prédire ce qu'il se passera dans le mois ou les deux mois à suivre.
Ce principe a évidemment certaines limites et, pour aller plus loin, il faut se rapprocher de la physique réelle des phénomènes, donc inclure dans la modélisation le fait que la population interagit avec la propagation du virus. Cela crée un système global. Cet aspect n'a été examiné par la communauté de l'épidémiologie que depuis un ou deux ans, depuis l'arrivée de l'épidémie. Elle travaille sur ces techniques depuis de nombreuses décennies mais cet aspect a surtout été vu en économie avec la théorie des anticipations rationnelles ainsi que la théorie des jeux et l'équilibre de Nash.
Depuis bientôt 20 ans, un groupe de mathématiciens français…
… a introduit la notion de « jeu à champ moyen » qui conceptualise un jeu faisant intervenir un nombre de joueurs tendant vers l'infini et gomme l'aspect combinatoire de la théorie des jeux avec un grand nombre d'agents, en le remplaçant par une approche statistique qui le globalise et le rend utilisable. Les deux principaux initiateurs de cette théorie sont Pierre-Louis Lions et Jean-Michel Lasry.
Cette planche précise l'enrichissement de la modélisation par boucles fermées ; elle est développée dans une annexe au rapport. Elle est fondée sur le premier article qui a adopté ce point de vue, d'une grande qualité pédagogique. Pour moi qui n'étais spécialiste ni des jeux à champ moyen ni de l'épidémiologie, pour un mathématicien de métier mais non du domaine, il est réellement abordable. J'en recommande la lecture. Des articles plus élaborés et plus compliqués ont été publiés depuis ; ils vont dans la même direction.
Le point important est que la prise en compte de cette interaction montre un écart notable par rapport aux résultats de référence fournis par les modèles SIR. Il s'agit sur les graphes de la différence entre les courbes en pointillés et les courbes en trait continu. Je n'ai pas confronté ces écarts aux différences entre prévision et réalité qui ont été beaucoup discutées dans la presse et dans le grand public. Ils ne signifient donc pas que ces nouveaux modèles ont raison, mais que nous avons raison de vouloir en développer l'étude. Il existe probablement des pistes intéressantes à examiner.
La conclusion du rapport formule des recommandations. Nous pensons qu'il faut jeter les bases d'une véritable politique de gestion de crise en France, en développant un système permettant ce type de gestion, mais pas un système qui n'est réveillé que pendant les crises. Il faut un système utilisé en routine, éventuellement pour un autre usage qu'une crise sanitaire, mais en éveil de manière active. Le système doit être construit sur la base de ces deux piliers que sont la modélisation et les données, en utilisant des technologies de jumeaux numériques et en le concevant autour de modalités facilitées de travail collaboratif pendant la crise, au moment où l'on n'a pas le temps de former les gens à travailler ensemble. Il faut donc disposer d'une plateforme conçue par essence pour faciliter cette collaboration.
Nous ne sommes pas parvenus à analyser les problèmes d'organisation. Je me suis entretenu avec Bernard Larrouturou, longuement et de façon très ouverte, ainsi qu'avec un membre de la cellule de crise de sécurité qui a souhaité rester anonyme. Le rapport contient les éléments correspondants.
Nous en sommes ressortis avec des interrogations plutôt que des réponses et des solutions. Le point important est que l'approche par plateforme ne préjuge pas du mode d'organisation retenu pour son usage, contrairement à ce qui est souvent reproché à l'égard de l'informatique. Les politiques, les décideurs gardent la main sur le type d'organisation qu'ils décident de mettre en œuvre, contrairement à ce qui arrive souvent par l'informatique quand on met en avant les process de traitement plutôt que les outils algorithmiques et de traitement des modèles et des données. C'est un point important : le système reste neutre vis-à-vis de l'organisation.
Nous pensons qu'il serait utile de lancer des programmes pour favoriser cette nouvelle école de modélisation d'épidémiologie humaine, ouverte sur d'autres disciplines mathématiques et bénéficiant de la réflexion accumulée dans d'autres domaines comme l'économie. L'important est de s'appuyer sur des outils qui préparent à improviser et qui servent aussi en temps normal.
La conclusion est que la France et l'Europe sont très bien dotées en ressources scientifiques et industrielles dans le secteur de l'informatique et du numérique, en particulier avec Dassault et Siemens, en particulier du fait de notre positionnement fort dans des secteurs critiques comme les transports. Ce type de secteur industriel a appelé le développement de ce type d'outil.
Le groupe de travail a ensuite réfléchi à ce qu'il faudrait faire dans les six à neuf mois à venir. Le rapport donne en quelque sorte un point de départ. Il montre l'étendue des possibles et c'est ce que nous avons mis derrière l'idée de Crisis model hub, qui a été illustrée par les comptes rendus d'entretiens. Nous avons identifié les acteurs, tant industriels que de la recherche mais il reste à un nombre important de choses à faire à court terme pour, dans une première étape, aboutir à un véritable cahier des charges.
Comme nous n'avons pas eu l'accès dont nous aurions eu besoin aux acteurs de la décision politique, nous ne savons pas très bien quelles ont été les priorités, où les difficultés se sont cristallisées et où elles continuent à l'être, et où sont réellement les besoins au regard du soutien que peut apporter le genre d'outil dont nous avons parlé. Il faut affiner les priorités des pouvoirs publics et un travail complémentaire, qui demande d'accéder aux personnes appropriées, nous semble nécessaire.
Ensuite, il faudrait choisir les grandes options pour le développement de ce type de plateforme. À grands traits, elle peut être développée de deux manières différentes. La première est un pilotage public, même s'il peut faire appel à un partenariat entre public et privé. Typiquement, un opérateur public concevrait un cahier des charges très détaillé, en élaborant des spécifications système assez précises de ce que doit être le type de plateforme et, éventuellement, ferait travailler un grand nombre de sous-traitants. L'alternative consiste à choisir un partenariat avec un seul ou un tout petit nombre d'éditeurs privilégiés qui ont l'expérience de ce genre d'outil, et de discuter avec eux essentiellement d'une personnalisation de l'outil qu'ils proposent à leurs clients.
Il s'agit d'un choix politique. Les deux solutions sont possibles et ont chacune leurs avantages et leurs inconvénients. Ce n'est pas à nous de décider. Nous pensons qu'il faut s'inspirer de développements similaires dont l'État a l'expérience. Il en existe au ministère de la défense. Vous avez certainement eu à prendre ce genre de décision. À notre avis, l'Agence nationale de la sécurité des systèmes d'information (ANSSI) a une expérience particulièrement intéressante en la matière pour décider de ce type de stratégie. Il serait également judicieux d'en discuter avec la cellule qui a mis sur pied le Health data hub.
La troisième étape consiste à mettre sur pied la task force côté État, donc à savoir qui regrouper pour devenir les acteurs principaux. Nous pouvons accompagner mais nous ne pouvons pas être des acteurs principaux pour préparer un cahier des charges détaillé et prendre les décisions qui y sont mentionnées. Enfin, il faut évidemment un chiffrage du dossier
Merci beaucoup pour ce tour d'horizon et pour ces exemples très marquants. Parmi les conclusions, je retiens l'importance de faire appel aussi aux sciences humaines et sociales (SHS). Les incorporer aux questions classiques de modélisation épidémiologique est fondamental pour l'OPECST. Nous avons pu voir tout au long de la crise sanitaire à quel point les questions relevant des SHS étaient à la fois les plus délicates à traiter et les plus cruciales, dans un certain sens. Nous l'avons vu sur la stratégie vaccinale où les prouesses des laboratoires ont été bien au-delà de ce qui était attendu au départ mais où le débat sur l'information et sur la mise en œuvre, les questions de discours et les questions de comportements ont été encore plus compliqués que ce qui pouvait être prévu.
Nous ne sommes pas forcément des grands mathématiciens à l'OPECST mais vos explications nous rendent intelligents.
Comme je l'ai dit tout à l'heure, j'ai l'impression que, sur certains aspects de la politique de santé, nous sommes tout le temps en situation de crise. J'ai depuis trente ans l'impression d'être en situation de crise, par exemple sur les problèmes de transfert et de placement dans les services hospitaliers. Il me semble que nous pourrions vraiment utiliser cette intelligence dont vous nous avez montré les résultats pour faciliter le travail des soignants.
Je souhaite aussi rappeler que l'Office a publié en 2019 un rapport sur l'hésitation vaccinale qui montre que, même avec beaucoup d'algorithmes, les facteurs humains sont malheureusement parfois assez difficiles à prendre en compte. C'est la limite de l'intelligence artificielle – même si je suis absolument persuadée que c'est l'avenir. Avec la raréfaction des médecins, des soignants, Cédric Villani disait qu'une partie de la réflexion peut être remplacée par de l'intelligence artificielle, même si nous n'en étions pas persuadés au départ.
Cette réflexion appellera un commentaire. Je continue le tour des parlementaires avant de laisser nos invités réagir.
Quelle est la place de l'épidémiologie dite « classique » par rapport à ces évolutions et ces bonds en avant causés par l'intelligence artificielle et la mise en œuvre des nouveaux outils que vous avez décrits ? Avons-nous toujours besoin de nous adosser à l'épidémiologie classique en organisant ponctuellement des suivis de cohorte avec des équipes de chercheurs ad hoc ? La mise en place d'une sorte de surveillance – j'hésite à utiliser le mot car des questions éthiques se posent –, disons plutôt d'une veille pour le fonctionnement d'une éventuelle task force peut-elle nécessiter d'organiser des recherches ad hoc sur des sujets particuliers ou sur des cohortes particulières qui auraient été identifiées ? Vous avez montré clairement que les données concernées sont suffisamment vastes pour faire apparaître des concordances, des corrélations d'évènements, mais il reste néanmoins nécessaire de disposer d'outils de vérification pour établir des faits, notamment en matière de causalité mais aussi au regard des mesures politiques à mettre en œuvre pour la santé publique.
En effet, entre ce qui est identifié et ce que l'on met en œuvre de façon pragmatique s'intercalent notamment les comportements individuels, la part d'irrationnel et les biais que vous avez évoqués. Quelle est la méthode qui permettrait d'éviter de se fourvoyer, de mal interpréter les événements, d'être abusé car les algorithmes ont mis en évidence des évènements qui ne sont pas ceux initialement exprimés mais des événements intercurrents qui sont en fait le véritable évènement ?
Ma deuxième question porte sur le suivi de crise et sur les conséquences que l'on peut en tirer dans la mise en place de protocoles sanitaires. En matière de gestion de crise, les plans blancs et les plans rouges, au moment où le risque de terrorisme biologique a été identifié, ont été mis en place voici quelques années. Ces plans restent extrêmement locaux, alors que les protocoles de crise dont nous parlons interviennent à une échelle populationnelle bien plus massive mais ne débouchent pas toujours sur des choses très opérationnelles sur le terrain. Les plans blancs et rouges ont-ils toujours leur place dans le système ? Sont-ils toujours utiles ou faut-il repenser complètement l'organisation de la prise en charge sanitaire en cas de crise ?
Par ailleurs, quelles conséquences faut-il tirer des éléments que vous avez exposés pour la gestion quotidienne du système de santé, notamment l'organisation hospitalière et les liens avec la médecine de ville ? Comme le disait Florence Lassarade, les plans de déplacement sanitaire du quotidien ne sont toujours pas structurés à l'échelle des agences régionales de santé (ARS) ou, en tout cas, très imparfaitement. Le nouvel outil de politique sanitaire que vous appelez à mettre en place pourrait-il faire franchir un bond d'efficacité et de pragmatisme sur le terrain ? Nous courons après depuis pas mal de temps maintenant et nous courons encore plus après depuis que la crise a mis en lumière une désorganisation criante sur le terrain.
Enfin, ma dernière question concerne la sécurité des données. Il s'agit de données individuelles ; nous brassons de la donnée qui n'est pas individuelle mais qui parle de l'individu quand même et des questions éthiques se posent donc vraiment. Vous avez peu évoqué ce sujet alors qu'en France, il est très sensible et que, par exemple, le Health data hub suscite de nombreuses questions non tranchées quant à la maîtrise de l'individu sur ses données. Avons-nous le droit de suivre de façon massive des données produites par les uns et les autres sans nous demander si cela peut nuire potentiellement à l'individu concerné ?
Le rapport présente des analyses de cas et des recommandations. Les analyses viennent du monde de l'entreprise et concluent qu'il est important de ne pas avoir uniquement un plan de crise « dormant » mais que les processus destinés à gérer la crise doivent être utilisés régulièrement pour que le pays soit réellement prêt. S'agissant des recommandations, l'organisation des pouvoirs publics devrait-elle viser prioritairement à confectionner des outils techniques prêts à être utilisés ? à disposer de données prêtes à être mobilisées ? à avoir de bons réflexes et, pour le décideur, de bonnes habitudes et un état d'esprit apte à savoir avec quels ressorts gérer la crise ? à établir des réseaux efficaces, par exemple en faisant en sorte que des personnes du monde de l'entreprise familières avec la gestion de crise soient en contact avec des personnes du monde politique familières avec la gestion de crise ? La préparation se situe-t-elle au niveau du réseau humain, au niveau des données, au niveau de l'outil technique ou au niveau des savoir-faire ?
J'ai réparti les questions posées en trois grandes catégories. La première concerne la remarque selon laquelle les nombreux problèmes logistiques rencontrés pendant la gestion de la crise actuelle sont en fait des problèmes de routine contre lesquels le système sanitaire se sent insuffisamment armé, ce qui conduit à des conditions de travail difficiles. La deuxième porte sur la modélisation épidémiologique ; en particulier, faut-il continuer à en faire ou pas ? La troisième cherche à préciser notre message principal : concerne-t-il les outils, l'attitude, etc. ?
Pour la première question, j'ai plusieurs réponses. D'abord une réponse pragmatique, dans la mesure où il s'agit d'un point spécifique : si vous arrivez à dégager le temps nécessaire, je vous propose d'aller rencontrer deux équipes qui ont fait des expériences en rapport avec le souci logistique que vous mentionnez, l'équipe d'IBM et celle de Dassault qui a fait la modélisation globale du système de santé ; elle inclut des éléments logistiques de cette nature.
Existe-t-il des solutions miracles ou non ? Vais-je résoudre votre problème du jour au lendemain ? Je ne peux pas répondre de la sorte mais nous pouvons vous aider à trouver des pistes pour savoir comment améliorer la situation.
Il existe des outils mathématiques et informatiques qui ne sont pas suffisamment utilisés ou qui ne sont pas disponibles pour les équipes médicales. Les médecins veulent faire de la médecine, pas des mathématiques ou de l'informatique. Ils ont besoin d'un ensemble d'outils. Nous en avons présenté quelques-uns et d'autres existent. Des outils informatiques sont en développement à l'École normale supérieure de Cachan pour aider à faire les plannings des hôpitaux, pour savoir qui est présent, qui est absent, etc., donc pour avoir des prévisions plus fines. Ces outils permettent d'alléger le travail des médecins, de façon à ce qu'ils puissent se concentrer sur leur métier et non sur ces aspects d'organisation.
Pour élargir le point de vue, nous touchons du doigt la problématique de la recherche opérationnelle. Elle est largement utilisée dans les entreprises mais pas dans les hôpitaux et dans la santé pour de très nombreuses raisons, dont le retard technologique des systèmes d'information des hôpitaux.
Pendant la crise, on a vu des équipes chercher à déployer de telles solutions dans des hôpitaux qui n'en voulaient pas, parce que ce n'était pas harmonisé avec les autres hôpitaux, parce que ce n'était pas conforme aux consignes du ministère, de l'AP-HP, etc. On a vu des situations où les solutions étaient clairement rejetées.
Cet aspect a été bien identifié par les gens d'IBM et leur présentation était assez intéressante sur ce plan.
Sur l'aspect épidémiologique, les essais sur cohortes seront à mon avis un peu bousculés par ce qu'il s'est passé pendant la pandémie, tout simplement parce que, pour la première fois, malgré l'imperfection des données qui pourront en être tirées, il y aura des cohortes en vraie grandeur, comme il n'y en a jamais eu. Cela changera probablement la façon de voir le calage des modèles sur les données – ce qui est l'un des aspects de l'intelligence artificielle – qui reposera sur des cohortes de données bien plus grandes que précédemment. Je suis donc convaincu que, même en conservant le point de vue de l'épidémiologie classique et des modèles compartimentaux, il sera possible de faire une exploitation considérable des données résultant de la crise.
Par ailleurs, le volet intelligence artificielle du travail de modélisation existe depuis bien plus longtemps que les progrès de l'apprentissage profond, qui datent du début de la décennie qui vient de s'achever. Ces recherches ont été entreprises dans les années 1950 ou 1960 et sont donc vraiment intégrées à l'épidémiologie. Elles consistent à élaborer des modèles dits semi-physiques, qui ne sont pas la traduction précise d'un phénomène physique particulier mais qui en sont une traduction approchée, un peu globalisée. Ils font apparaître des paramètres dépourvus de signification physique exacte qui permettrait d'en déterminer la valeur pour des raisons fondées physiquement. C'est ainsi que l'aspect « statistique et apprentissage » intervient et les paramètres correspondants sont déterminés grâce aux données récoltées.
Il faut bien comprendre que, lorsque l'on utilise ces techniques sur des phénomènes dont un modèle idéal serait différent de celui utilisé pour faire la prévision épidémiologique, on se débrouille pour tordre les modèles épidémiologiques afin que, localement dans l'espace et dans le temps, ils se comportent comme s'ils étaient exacts. C'est un autre apport de l'intelligence artificielle à ce type de modélisation mais un tel calage ne vaut que localement, dans le temps et dans l'espace. Il ne permet pas de faire des prévisions lointaines. Il ne permet pas d'intégrer ce que vous avez appelé les vrais évènements les plus importants. Ceux-ci n'ont pas été pris en compte dans le modèle lorsque les paramètres ont été calés.
Pour améliorer la modélisation – c'est un principe général de modélisation qui n'est pas spécifique à l'épidémiologie –, il faut être le plus proche possible des phénomènes physiques fondamentaux sous-jacents. Plus les paramètres du modèle ont une pertinence proche de la physique, même lorsque c'est un modèle complètement fondé physiquement, plus il sera facile soit de les « pifométrer », soit de les caler sur des données. Le travail habituel sur les cohortes sera facilité si la structure et la nature des modèles est proche des vrais phénomènes sous-jacents.
C'est pour cette raison qu'il est souhaitable de promouvoir la prise en compte du complément relevant de la psychologie de foule. Dans les travaux de modélisation les plus récents, un paramètre est le coût perçu par un individu lorsqu'il doit se confiner. C'est un phénomène que nous comprenons suffisamment bien pour parvenir à régler qualitativement ou empiriquement ce paramètre. Nous pouvons le caler sur des données mais de manière contrôlée par rapport à la compréhension du phénomène. Il s'agit d'un paramètre qui est proche de la réalité et qui rend en quelque sorte le modèle plus malin, plus proche des vrais phénomènes. Plus on s'approche de ce qui serait la bonne modélisation, plus l'apport de l'intelligence artificielle, qui restera nécessaire, est facilité.
En conclusion, les cohortes resteront utiles. Je pense que la disponibilité de la grande cohorte Covid révolutionnera l'épidémiologie et qu'il est nécessaire d'inclure les compléments à la propagation du virus pour avoir des paramètres pertinents que nous saurons mieux caler par le biais de cohortes.
Le président Cédric Villani a posé une question sur les points essentiels du rapport en matière d'organisation des autorités publiques. Le premier point est de cesser de croire qu'il faut après chaque crise prévoir un plan noir, un plan rouge ou un plan vert pour résoudre la crise suivante. Une politique fondée sur des plans de crise sert à régler la crise d'avant mais jamais la crise d'après. Nous pouvons dire clairement qu'il est inutile de s'époumoner à fabriquer des plans et des réseaux de gens destinés à les mettre en œuvre lorsqu'une nouvelle crise survient. Ceci nous paraît assez vain et, comme je l'ai dit, nous ne nous associons pas à la critique faite à la politique des masques parce que, d'une certaine manière, le problème était un peu inéluctable. C'est ce qui survient chaque fois qu'est mis en place un système voué à l'obsolescence. C'est l'essence des choses : des outils qui ne servent qu'en temps de crise sont des outils qui, essentiellement, ne marcheront pas.
Il est bien plus pertinent de convaincre les organismes gouvernementaux de déplacer leurs pratiques vers ce qui est de plus en plus pratiqué dans l'industrie des systèmes compliqués et des systèmes critiques, où doivent être prises des décisions difficiles, des décisions qui engagent des facteurs humains importants. Il s'agit d'exploiter des attitudes et des façons de faire utilisées en permanence, pour tout ce qu'il faut concevoir, depuis les problèmes de routine jusqu'aux situations de crise.
Il faut avoir des plateformes dans lesquelles cet aspect « attitude générale », « état d'esprit » intervient pour faire face au risque, en cas de crise, lorsqu'on a besoin de faire intervenir ensemble des gens qui ne se sont jamais parlé auparavant. C'est la situation qui s'est présentée lors de la crise sanitaire et il aurait été utile de savoir très bien faire coopérer les gens qui en temps normal n'ont pas vocation à coopérer. La disponibilité et l'usage de plateformes du type que nous avons mentionné et la pratique qui en est faite dans l'industrie facilitent le développement de ce genre d'attitudes.
Le fait de s'habituer à tisser des liens pour gérer des compromis est également important. Les politiques gèrent de façon habituelle de nombreux compromis. Si vous n'êtes pas outillés pour élaborer ces compromis en grande quantité, je pense que ce n'est pas très facile. Tout ce qui peut aider à réaliser des modélisations globales permettant de faire à l'avance ces jeux de scénarios me semble très important.
Vous avez évoqué les problèmes d'éthique. Ils existent pour les données et, dans une politique de ce type qui mobilise l'intelligence artificielle, ils existent aussi derrière les modèles. Dans l'intelligence artificielle, on associe des problèmes d'éthique à des questions d'algorithmes. Les algorithmes peuvent en effet être ou ne pas être éthiques. Ce sont de vraies questions et, à mes yeux, une réponse a déjà été adoptée pour les données dans le cadre de la politique européenne sur la plateforme GaiaX. Il faudrait s'en inspirer pour les travaux de modélisation et d'algorithmique.
Les modèles doivent être connus, être publics, ne pas être cachés. Il est important qu'ils soient décrits et spécifiés dans un langage concis et compréhensible, d'abord pour des spécialistes et ensuite, de manière plus dégradée, pour les non spécialistes et le grand public.
Pour compléter la réponse portant sur les points essentiels du rapport en matière d'organisation des autorités publiques, il faut aussi des outils techniques. Nous proposons la mise en place d'une plateforme, c'est-à-dire d'un cloud spécifique à la gestion de crise qui serve de support permanent au test et à la mise en place de nouveaux modèles et de nouveaux algorithmes ainsi qu'à l'usage de données différentes. Cette plateforme permettrait de construire l'expérience, ce qui est fondamental.
Il s'agit ensuite de savoir à quoi cette plateforme peut servir, notamment au niveau de l'État, puisqu'une telle plateforme concernerait plus le monde académique dans un premier temps. En effet, comme le disait Albert Benveniste, si elle n'est utilisée que dans le contexte d'une grande crise, il est probable que rien ne marchera. La réponse est claire : des crises spécifiques surviennent chaque année, liées par exemple aux incendies de forêt sur la côte méditerranéenne ou aux inondations dans le sud de la France après des phénomènes cévenols. Nous trouvons là en vraie grandeur un ensemble d'actions et de modèles qui peuvent être mis en place pour gérer au mieux de telles crises et les anticiper.
La plateforme pourrait être utilisée pour le transport en urgence des malades à condition que les modèles soient bons. Cela nécessite un travail de modélisation.
Dans la vie d'une nation comme la nôtre, nombre d'évènements justifient que la prise de décision politique puisse s'appuyer sur des prévisions variées et abondées en permanence. Il faut que ce système soit interministériel. Il ne doit pas être sous la tutelle du ministère chargé de la santé puisque se posent des aspects économiques, logistiques et sociologiques. Il ne peut pas être sous la coupe du ministère de l'intérieur et de la sécurité civile car interviennent d'autres aspects que ceux relatifs à la sécurité civile.
Le rapport recommande clairement de mettre en place un tel outil, qui ne serve pas seulement en cas de crise de type covid qui arrive relativement rarement. Notre idée est plutôt un format de type secrétariat général de la Défense et de la Sécurité nationale (SGDSN), sous l'autorité du Premier ministre. Cela nous semblerait être une bonne façon de procéder.
Il suffit d'aller voir les secteurs qui sont sous tension permanente, y compris le milieu hospitalier. D'une certaine manière, ce sont de bons exemples. Dans un certain nombre de secteurs en tension permanente, les politiques de l'État ont un rôle important et l'on est aux limites d'une situation de crise, avec tous les problèmes déjà évoqués pour la collecte de données, l'information, l'élaboration de compromis et l'évaluation de l'effet des décisions. Les paramètres sont présents, probablement beaucoup plus fréquemment que ce que nous avons tendance à imaginer.
J'insiste sur la formation parce que, lorsque la crise arrive, on n'a plus le temps de nous former. Il faut au moins que les esprits soient préparés, avec plusieurs degrés de préparation selon le degré d'implication des personnes. Nous devons avoir des formations de base, ne serait-ce que pour sensibiliser à ce qu'est une crise, à la façon dont cela se passe et dont les gens sont surpris, au temps qu'ils mettent à s'organiser, à la difficulté de comprendre ce qu'il se passe, au besoin d'être éclairé sur l'environnement, etc. Les gens doivent avoir des réflexes, évidemment avec une gradation entre le grand public et les spécialistes qui auront à gérer la crise.
Aujourd'hui, la notion de gestion de crise n'est pas vraiment connue, à part de quelques spécialistes. Il faut organiser des dispositifs de formation, peut-être dans les écoles, notamment de management, ou dans les formations politiques. Il faut diffuser les notions de crise et de gestion de crise pour en retirer des expériences, pour que les gens soient prêts le jour où la crise arrive.
J'ai encore à vous poser quelques questions précises.
Le rapport évoque deux solutions techniques qui fonctionnent moins bien que ce que l'on a pu croire à un moment, Watson et les outils de type Google's Flood. Dans un cas comme dans l'autre, des responsables de la tech disaient à une époque que c'était une révolution, que cela changerait la façon de surveiller les phénomènes critiques, etc. Pourtant, il semble aujourd'hui qu'il faille être beaucoup plus nuancé ou prudent.
Que dire du recours de l'État à de grands cabinets de conseil tels que McKinsey ? Est-ce de la bonne gestion ? Est-ce du gâchis d'argent public ? Est-ce une étape indispensable ? Je voudrais avoir votre sentiment, sans que cela engage l'Académie.
Enfin, vous relevez que les ministères ont une propension à travailler en silos tout en évoquant un mieux pour le ministère de l'économie. Qu'avez-vous senti de mieux dans ce ministère ? Pouvons-nous en tirer une leçon ?
Pour rebondir sur les réponses qui m'ont été faites, ma question portait vraiment sur le rôle de l'humain. Si des outils sont créés pour virtualiser un processus de réaction, notamment en termes de logistique, il n'empêche qu'il faut des gens sur le terrain, des moyens de transport, des numéros de téléphone, etc. Il faut prévoir des articulations avec le réel. En matière d'épidémiologie, il faut bien l'intelligence humaine et son inventivité pour écarter des éventuels rapports de causalité une relation qui serait en réalité un biais. Jusqu'à présent, je ne suis pas tout à fait convaincue que les modèles puissent le faire.
Les modèles ne sont pas tous basés sur l'intelligence artificielle. Il existe d'autres types de modèles, beaucoup plus directs.
Deux types de raisonnement sont possibles. Dans le raisonnement déductif, on va du général vers le particulier et ces modèles sont moins soumis à l'incertitude dès lors qu'ils ont été validés. Les modèles dits inductifs, comme ceux que vous évoquiez, prennent un échantillon de données et essaient d'en faire une généralisation, ce qui, dans le champ de l'intelligence artificielle, correspond à l'apprentissage. Ces modèles sont bien entendus plus soumis à questionnement et il existe des outils pour essayer de valider les méthodes inductives – ainsi que les méthodes déductives pour valider les modèles généraux, qu'il ne faut pas oublier. La météorologie est basée sur des modèles déductifs, des modèles qui n'ont pas de biais, car ils relèvent de la physique des écoulements de fluides. Les difficultés ne viennent pas que des aspects liés au processus inductif qui part d'un échantillon.
Je ne sais pas s'il existe un consensus sur l'échec de Watson, en particulier pour la santé. Pour en avoir discuté notamment avec des équipes d'IBM et avoir vu des papiers rédigés par des gens d'IBM, je crois que le problème provient, comme toujours, de ce que n'importe qui ne peut pas assurer l'apprentissage supervisé utilisé dans Watson, c'est-à-dire un apprentissage où le sens des données est indiqué par l'homme. Pour faire de l'inférence, pour prédire une maladie à quelqu'un à partir des données, il faut que des experts aient validé les données et qu'ils leur aient donné un sens sémantique. Par exemple, pour prédire un AVC, les spécialistes pensent qu'il faut de l'ordre d'un million d'électrocardiogrammes annotés par des cardiologues, pas par n'importe qui. Il faut que des experts interviennent.
Ces systèmes sont extrêmement chers, extrêmement lourds à mettre en œuvre et leur paramétrage ne peut pas être confié à quelqu'un qui passe dans un couloir. Je dis cela parce que c'est souvent ce qu'il s'est passé avec Watson appliqué à la santé : le travail d'annotation des données a été confié à des étudiants, à des petites mains. Or ce n'est pas si facile. En général, les start-ups ne savent pas faire parce qu'elles ne peuvent pas gérer un million d'électrocardiogrammes et les faire annoter par des cardiologues patentés. Tout cela a un coût dont il faut être conscient.
En ce qui concerne Google's Flood, ce n'est pas que cela ne marche pas mais la précision n'est pas très bonne. Il existe bien des corrélations entre les maladies physiques et les consultations via Google mais elles n'ont pas le caractère précis et prédictif qui est souhaité, ce qui est ennuyeux.
Par contre, il a été démontré durant cette période que le suivi automatisé en temps réel des déplacements par géolocalisation est extrêmement précis. C'est une donnée très précieuse, qui a des impacts économiques. Si les gens ne se déplacent plus, ils n'achètent plus. Ce suivi donne donc à l'avance des informations sur la vie économique et ce qu'il se passe pour les magasins. Le problème est que l'on ne sait pas aujourd'hui interpréter ces données et que l'accès à ces données dépend entièrement du bon vouloir de Google.
Sur les transports, nous n'avions pas les données de la RATP ni celles de la SNCF. L'un comme l'autre sait combien de trains circulent mais pas combien de voyageurs ils transportent. Nous ne connaissions donc pas les déplacements effectifs des Français pendant la crise et la seule source d'informations était Google. Ce n'était ni la SNCF, ni le synoptique du trafic autoroutier d'Ile-de-France (Sytadin), ni les organismes gouvernementaux. C'est un peu dommage.
Je ne peux répondre à cette question. Je n'ai pas suivi de près ce sur quoi ils ont travaillé.
Je n'ai pas non plus d'opinion mais j'en ai pratiqué un certain nombre en tant qu'industriel, notamment McKinsey, et j'ai plusieurs remarques. La première remarque est que la logistique est un vrai métier et qu'il existe des entreprises pour le faire. Il faut développer de l'expertise pour faire de la logistique. La question peut se poser de l'existence d'une telle expertise quelque part dans l'État. Est-ce à l'État de financer cette expertise ? Ce n'est probablement pas le métier du ministère chargé de la santé que d'être très fort en logistique.
Il est certain que la question de l'expertise logistique se posera ailleurs dans l'État. Il ne faut donc absolument pas la négliger puisque c'est l'un des facteurs clés de l'économie moderne. Cette expertise pourra probablement être trouvée dans le privé. La logistique n'est pas un « petit truc » comme j'entendais un grand énarque, ancien secrétaire général de l'Elysée, le dire à la télévision, affirmant que la santé sait très bien faire de la logistique. Je demande à voir. La logistique exige de l'expertise, du savoir-faire et il faut la pratiquer pour la maîtriser. Je ne suis pas sûr de trouver, au moins au ministère de la santé, ce genre de compétences.
Ce n'est sûrement pas McKinsey qui donnera cette compétence mais plus probablement des entreprises spécialistes de la logistique, qui ont des outils propres. Il existe aussi des enseignements de logistique, par exemple à l'Institut polytechnique de Grenoble (INPG). Des maîtrises de logistique sont délivrées dans certaines écoles et universités où de la compétence existe, où de la recherche est faite, y compris avec des modèles.
McKinsey m'intéresse pour leur rapport sur l'usage des big data dans la santé aux États-Unis parce qu'ils ont été capables de mettre en œuvre une vision un peu globale et les outils pour interroger de nombreuses personnes sur l'impact des big data sur le coût de la santé, entre autres. C'est la seule étude sérieuse que je connaisse sur le sujet.
Il faut les utiliser pour ce qu'ils savent faire, c'est-à-dire de grandes études un peu générales que personne ne fait réellement, et sûrement pas pour résoudre un problème de logistique. Que le privé apporte son expertise me semble être assez naturel et je ne pense pas qu'il faille forcément créer des services de logistique. Peut-être les militaires sont-ils mieux équipés en logistique que d'autres ministères, pour des raisons évidentes.
Tous les grands distributeurs ont des équipes de centaines de logisticiens expérimentés.
L'une des questions que nous nous sommes posées est celle de la mobilisation. Nous avons vu pendant cette crise que des entreprises privées ont pu avoir une réactivité importante sur nombre de sujets. La gestion de crise consiste peut-être aussi à réfléchir à une articulation entre public et privé plus performante, et réellement mise en œuvre pour résoudre les problèmes.
Ce n'est pas la première fois que nous entendons de tels commentaires et de telles analyses.
Chers collègues, nous arrivons au terme de cette audition dont nous pouvons tirer bien des enseignements importants pour l'État. Votre rapport va loin dans l'analyse et formule une très utile palette de recommandations. Au-delà du fond, les politiques que nous sommes sont sensibles aux formules frappantes que vous avez su trouver, comme « les données ne sont pas données ». Ce sont des formules excellentes pour marquer et pour guider. La notion de travail collaboratif que vous avez évoquée à de nombreuses reprises, le partage d'expérience et d'expertise sont aussi extrêmement en phase avec ce que nous tâchons de faire à l'OPECST.
La collaboration avec les académies – des sciences, de médecine ou des technologies – nous est précieuse et j'espère que nous aurons l'occasion d'échanger encore, régulièrement et de façon approfondie, sur de nombreux sujets à l'interface entre science, technique et politique.
Audition de Marie-France Bellin, présidente du conseil d'administration de l'Institut de radioprotection et de sûreté nucléaire (IRSN), Jean-Christophe Niel, directeur général, et Louis-Michel Guillaume, directeur général adjoint, sur le rapport annuel de l'Institut pour 2020
Nous avons grand plaisir à recevoir pour une nouvelle audition l'Institut de radioprotection et de sûreté nucléaire (IRSN). À la différence d'autres, cette audition n'est pas prévue par la loi mais elle relève d'une tradition, importante au vu des compétences de l'OPECST, des missions de l'Institut et de la sensibilité des sujets évoqués dans ce cadre. C'est pourquoi elle est organisée chaque année.
Nous accueillons aujourd'hui Marie-France Bellin, présidente du conseil d'administration de l'IRSN, Jean-Christophe Niel, directeur général, et Louis-Michel Guillaume, directeur général adjoint, qui vont nous présenter le rapport d'activité de l'IRSN pour l'année 2020, une année particulière du fait de la crise sanitaire. Celle-ci n'a pourtant pas empêché l'IRSN de répondre avec la même réactivité que d'habitude aux demandes du Parlement et nous vous en remercions. Nous vous avions en particulier sollicités en avril 2020, à l'initiative d'Émilie Cariou, sur les incendies intervenus dans la région de Tchernobyl.
Cette réactivité vous a permis d'assurer vos missions d'expertise, d'analyse et de continuer à nous tenir informés sur l'état de la recherche en matière de risques nucléaires et radiologiques, aussi bien sur les questions d'actualité que sur les questions de fond.
L'Institut a démontré sa capacité à adapter ses interventions au contexte de crise et à mener à bien dans les délais plusieurs dossiers lourds, comme le réexamen périodique des réacteurs de 900 mégawatts ou l'évaluation de la nouvelle organisation de la Forge du Creusot qui réalise des pièces de grande taille pour les réacteurs nucléaires. Il en va de même pour divers dossiers qui touchent à la défense nationale comme l'examen du rapport préliminaire de sûreté du futur sous-marin nucléaire lanceur d'engins de troisième génération ou l'examen de sûreté lié aux travaux programmés dans les différents centres de Pierrelatte. Tout cela a pu être mené à bien, malgré la complexité des dossiers.
Sur le volet recherche, la crise a évidemment limité l'accès aux installations expérimentales mais les activités de l'Institut se sont poursuivies sur des sujets touchant à la sûreté nucléaire – je pense à la mitigation des rejets dans l'environnement en cas d'accident nucléaire majeur –, à la santé ou à l'environnement, comme l'optimisation des traitements utilisant des rayonnements ionisants et l'évaluation du risque associé.
Vous avez aussi lancé quatre programmes de transformation dans les domaines du numérique, du management, des modes d'organisation et de collaboration ainsi que de la responsabilité sociale et environnementale.
C'est donc une année paradoxale, mais assurément riche, que vous allez nous présenter maintenant, en choisissant librement les sujets que vous souhaitez développer et sur lesquels nous pourrons échanger par la suite.
C'est un devoir et un honneur pour la présidente du conseil d'administration, Marie-France Bellin, le directeur général adjoint chargé des affaires de défense Louis-Michel Guillaume et moi-même de vous présenter le rapport d'activité de l'IRSN pour l'année 2020.
À la création de l'Institut, le Parlement et le Gouvernement ont souhaité, en raison de la sensibilité de ce domaine, que des dispositions spécifiques soient mises en œuvre pour les missions de l'IRSN relevant de la défense et de la sécurité. Le directeur général est donc assisté par un directeur général adjoint (DGA), nommé par décret pris sur le rapport des ministres chargés de la défense et de l'énergie. Louis-Michel Guillaume, ici présent, est le DGA Défense. C'est lui qui répondra à vos questions sur ces sujets.
L'IRSN est l'expert public du risque radiologique et nucléaire. Cela signifie que l'IRSN évalue les risques liés à l'usage des rayonnements ionisants, y compris en situation accidentelle. Pour ce faire, deux missions lui sont confiées.
La première est l'expertise au profit des autorités, des ministères et des institutions publiques. Il s'agit essentiellement pour l'Institut d'éclairer une décision publique par l'évaluation du risque lié à l'utilisation des rayonnements ionisants. L'IRSN est ainsi à la disposition de l'Office pour traiter à sa demande de toute question en lien avec l'évaluation des risques liés aux rayonnements ionisants, que ce soit par la remise d'un rapport ou par une audition comme aujourd'hui. L'autre mission de l'IRSN est la recherche. Cette recherche doit alimenter notre expertise. C'est sa motivation.
L'évaluation de l'IRSN est scientifique et technique, collective et impartiale. La mission d'évaluation de l'IRSN réunit la sécurité nucléaire, la sûreté nucléaire, la radioprotection, les domaines civils et de la défense, la recherche et l'expertise. La réunion de l'ensemble de ces domaines ou activités est évidemment très favorable à la transversalité et à la multidisciplinarité de l'évaluation du risque.
À l'instar des autres agences sanitaires, la mission d'évaluation est bien distincte de la compétence en matière de décision, d'inspection et de sanction, qui appartient aux autorités, notamment aux ministères. C'est par ce système dual, qui procure en quelque sorte une double sécurité, entre experts et autorités, entre évaluateurs et gestionnaires du risque, que l'État assure la protection de nos concitoyens vis-à-vis des usages des rayonnements ionisants.
La structure budgétaire de l'IRSN est essentiellement organisée autour du programme 190 sur lequel est imputée la subvention pour charge de service public destinée à l'Institut. Elle est cohérente avec son organisation administrative et scientifique et il importe de la préserver.
J'en viens au rapport d'activité de l'IRSN pour 2020. Ce rapport ne vise pas à couvrir l'ensemble de ce qui a été réalisé par l'Institut en 2020. Il éclaire quelques temps forts qui illustrent son action et nos préoccupations.
Pour l'IRSN, l'année 2020, année de la pandémie, a mis à l'épreuve sa capacité d'adaptation à des changements aussi rapides que profonds. L'année 2021 sera celle du retour d'expérience.
Un peu plus de 200 salariés de l'IRSN ont été atteints ou suspectés d'être atteints par le virus. Pour certains d'entre eux et pour leurs proches, cela a pu être une épreuve difficile. Au-delà de la situation sanitaire, je constate la forte capacité de résilience dont a su faire preuve l'Institut dans un contexte difficile, en adoptant de nouveaux outils, en suivant une nouvelle procédure de travail à distance, en respectant des mesures de protection sanitaire inédites.
L'IRSN a poursuivi ses activités par la remise dans les délais prévus d'avis aux autorités et aux pouvoirs publics, par la continuité de la surveillance de l'environnement et des travailleurs, par le gréement de son centre de crise à six reprises, par le dialogue avec la société en répondant à une centaine de sollicitations des commissions locales d'information, par la continuation de programmes de recherche expérimentaux, par la poursuite d'activités indispensables comme la signature d'accords de partenariat ou le recrutement de nouveaux collaborateurs. Nous avons d'ailleurs plus recruté en 2020 qu'en 2019. Certaines activités ont été assurées en présentiel comme le suivi en temps réel des transports de matières nucléaires.
Dans les suites de la pandémie, l'IRSN bénéficiera du plan de relance pour son parc immobilier et probablement – la décision n'est pas encore prise – pour engager un programme de recherche sur la sûreté des SMR, les small modular reactors. Enfin, l'IRSN a engagé une réflexion sur le retour d'expérience à effectuer de la pandémie.
Je suis professeur des universités praticien hospitalier (PU-PH) en radiobiologie à l'hôpital du Kremlin-Bicêtre et je préside le conseil d'administration de l'IRSN, le directeur général exerçant les fonctions exécutives. Je veux témoigner ici de la qualité et du bon fonctionnement de ce conseil qui compte 25 membres. Y sont abordées à la fois les grandes décisions relatives à la vie de l'Institut, qu'elles soient budgétaires, d'organisation ou encore d'investissements mais aussi les réalisations scientifiques structurantes.
L'IRSN – ceci est moins connu que son action dans le domaine de la sûreté des installations nucléaires – conduit des actions de recherche et d'expertise dans le domaine de la santé. En effet, bien que le système de gestion de la radioprotection ait démontré sa robustesse pour prévenir les effets aigus et limiter la probabilité de survenue de cancers radio-induits dans les situations d'exposition faible, de nombreuses questions demeurent.
Ainsi, l'Institut effectue des recherches sur les conséquences des expositions accidentelles aux fortes doses, notamment en développant de nouvelles approches thérapeutiques permettant de traiter les pathologies résultant de ces expositions.
En lien avec des équipes hospitalières, l'Institut conduit aussi des travaux de recherche sur les effets d'un rayonnement ionisant sur les tissus sains lors des traitements par radiothérapie. Il s'agit de tissus sains autour ou à proximité des tumeurs. L'objectif est d'améliorer la qualité de vie des patients en minimisant les effets secondaires des traitements utilisant les rayonnements ionisants.
Enfin, l'Institut étudie les effets cancérogènes, mutagènes ou non, des expositions chroniques à de faibles doses de rayonnement par le recours à l'épidémiologie et à la radiobiologie. Le sujet des faibles doses rencontre une forte attente sociétale, en lien avec les enjeux de santé environnement. L'IRSN est ainsi impliqué dans les politiques nationales de santé environnement, telles que le quatrième plan national santé environnement ou le plan radon.
Ce sont 120 chercheurs, experts, techniciens de l'Institut qui travaillent dans ces domaines, en général dans le cadre de collaborations avec des équipes hospitalières, universitaires ou d'autres organismes institutionnels de recherche, français ou étrangers. Ces recherches viennent en soutien des expertises menées par l'IRSN dans le domaine médical.
Dans le champ de l'expertise, l'Institut a rendu plus de 650 avis et rapports aux autorités de sûreté civile, de défense, de sécurité, de non-prolifération et aux ministères.
Je souhaite illustrer la démarche de l'expertise par l'avis de synthèse du quatrième réexamen périodique des réacteurs de 900 mégawatts remis à l'Autorité de sûreté nucléaire (ASN) au mois de mars 2020, durant le premier confinement. Cet avis était une priorité majeure, fixée conjointement par l'ASN et l'IRSN dans le cadre de notre protocole pour l'année 2020. Il agrège les conclusions d'une quarantaine d'avis de l'Institut au cours de ce réexamen. Celui-ci s'inscrit dans le cadre de la prolongation de la durée d'exploitation des réacteurs, prolongation souhaitée par EDF dans un contexte de prise en compte du retour d'expérience de l'accident survenu à Fukushima. L'expertise de l'IRSN sur ce sujet représente plus de 200 000 heures de travail, soit 130 personnes par an sur la période 2015-2020. C'est donc un énorme travail.
Les experts de l'IRSN se sont focalisés sur deux enjeux majeurs : la conformité des installations à leur référentiel de conception, et l'amélioration de leur niveau de sûreté visant à se rapprocher des réacteurs de conception plus récente.
À l'issue de ce travail, l'IRSN a considéré dans son avis, qui est public comme la plupart de nos avis, que le programme proposé par EDF devrait lui permettre d'atteindre les objectifs fixés par l'ASN à ce réexamen, moyennant des compléments substantiels en termes de modification des installations ou de démonstration de sûreté. L'expertise de l'IRSN a d'ailleurs conduit à introduire une quarantaine de modifications nouvelles dans le programme initialement prévu par EDF.
Au-delà de son contenu technique, ce travail de l'IRSN illustre deux caractéristiques de l'expertise qu'il réalise. La première est l'importance de la recherche qu'il effectue pour conforter ses conclusions sur ce dossier de sûreté. Par exemple, en cas de brèche sur le circuit primaire du réacteur, l'eau de celui-ci s'échappe et s'écoule au fond du bâtiment réacteur. Elle est récupérée par des puisards puis renvoyée par des pompes dans le circuit primaire pour continuer à refroidir le cœur du réacteur et à évacuer la puissance résiduelle hors de l'enceinte. Cette eau se charge de débris, notamment des calorifuges, donc doit être filtrée pour permettre ces opérations. Le colmatage des filtres des puisards par des débris est un enjeu majeur de sûreté puisque, évidemment, il pourrait interrompre la circulation d'eau et donc le refroidissement. Pour disposer de nouvelles connaissances sur les phénomènes en cause, l'IRSN a mené des essais dans une boucle expérimentale nommée Victoria, construite en 2011 en Slovaquie, en collaboration avec une société d'ingénierie slovaque. Les résultats de ces essais ont permis de mieux apprécier le risque de colmatage en fonction de certains paramètres comme la température, la chimie de l'eau ou la nature des débris.
La deuxième caractéristique de l'expertise est la volonté d'instaurer dès 2014 et tout au long du processus un dialogue technique continu avec la société civile, afin de permettre l'accès de celle-ci aux travaux des experts de l'Institut et d'intégrer ses préoccupations dans nos expertises. L'IRSN a une politique d'ouverture et d'interaction avec la société, inscrites dans le contrat d'objectifs et de performance signé avec ses tutelles. Nous avons d'ailleurs publié en 2020 un bilan de dix ans d'engagement de l'Institut auprès de la société civile.
Ce dialogue a revêtu de nombreuses formes, comme un dialogue technique entre l'Association nationale des comités et commissions locales d'information (Anccli), des experts et l'IRSN, ou une implication dans la dizaine de réunions qui ont eu lieu dans le cadre de la concertation publique menée par le Haut comité pour la transparence et l'information sur la sécurité nucléaire (HCTISN).
L'IRSN a engagé ou poursuivi l'expertise de sûreté nucléaire dans de nombreux domaines pour des installations nouvelles comme le réacteur EPR, avec notamment la réalisation d'essais de démarrage ou l'étude des écarts de réalisation des soudures des lignes de vapeur principales. L'IRSN a aussi examiné la sûreté du sous-marin Barracuda ou des sous-marins nucléaires lanceurs d'engins de troisième génération, a regardé l'EPR 2 et le projet de centre industriel de stockage géologique (Cigéo).
L'IRSN s'est aussi intéressé aux installations existantes. Nous travaillons sur la prolongation d'exploitation des réacteurs de 1 300 mégawatts au-delà de quarante ans, comme cela vient d'être dit pour les réacteurs de 900 mégawatts. Nous réexaminons plusieurs installations du cycle du combustible, comme celles de l'entreprise Orano à La Hague, ou des installations de recherche comme le réacteur à haut flux (RHF) à Grenoble.
Dans le domaine de l'expertise en radioprotection, qu'elle vise les travailleurs, les patients ou le public, l'IRSN a produit plusieurs synthèses. L'une porte sur les niveaux de référence diagnostiques (NRD) en imagerie médicale. Ils permettent aux professionnels de santé en imagerie de délivrer le bon niveau de dose. Pour le sixième bilan des NRD, qui couvrait la période 2016‑2018, le rapport a montré une diminution des doses reçues dans tous les domaines. Ces valeurs se situent maintenant entre 0 et 25 % au-dessous des NRD en vigueur depuis le 1er juillet 2019.
L'IRSN a aussi publié en 2020 un nouveau rapport périodique sur l'exposition de la population aux rayonnements ionisants dus aux examens d'imagerie médicale diagnostique. Il porte sur l'année 2017 en comparant les données de 2017 à celles de 2012. Nous constatons que les évolutions observées entre 2012 et 2017 sur la fréquence des actes et la dose efficace annuelle par individu sont faibles puisque la dose moyenne est passée de 1,56 millisievert à 1,53 millisievert. La scanographie reste de loin la modalité qui contribue le plus à l'exposition de la population, avec 75 % de la dose efficace collective. La médecine nucléaire – qui est le troisième contributeur à la dose efficace collective – est la modalité qui a connu l'augmentation la plus importante ces cinq dernières années, que ce soit en fréquence ou en contribution à la dose efficace collective. Le rapport met en relief la problématique du cumul d'examens, qui conduit plusieurs centaines de milliers de patients à intégrer sur trois ans des doses efficaces pouvant dépasser les 100 millisieverts. Cela peut poser la question d'éventuels effets radio-induits à long terme.
Comme tous les ans, l'IRSN a publié en 2020 les résultats pour l'année 2019 de la surveillance dosimétrique des 395 000 personnes exposées aux rayonnements ionisants dans le cadre de leur activité professionnelle. Nous constatons qu'en 2019, l'effectif a légèrement augmenté, de 1,2 %, par rapport à 2018, mais que la dose collective a augmenté de 8 %. Ceci est principalement lié au volume accru de maintenance dans l'industrie nucléaire en 2019 et à l'augmentation des doses reçues par le personnel navigant exposé aux rayonnements ionisants, en lien avec l'activité solaire.
Le rapport 2021, présentant les résultats pour l'année 2020, est finalisé et sera rendu public en septembre. Il montre de manière assez prévisible une baisse de la dose collective dans tous les domaines. C'est évidemment un effet de la pandémie, notamment avec le report des opérations de maintenance chez EDF – puisque c'est là que l'essentiel des doses sont délivrées – et avec la baisse forte du trafic aérien.
J'en viens à la recherche. L'objectif de la recherche à l'IRSN est de disposer des connaissances nécessaires à l'évaluation des risques nucléaires ou radiologiques. J'ai déjà donné un exemple pris dans le cadre de la prolongation d'exploitation des réacteurs au-delà de quarante ans.
Cette recherche est évidemment partenariale et, en 2020, j'ai signé un accord-cadre de collaboration avec le Centre national de la recherche scientifique (CNRS). Il faut savoir que plus de la moitié des thèses IRSN sont encadrées par un chercheur ou une chercheuse du CNRS et que 40 % de nos publications sont réalisées en association entre l'IRSN et le CNRS. Nous avons aussi un accord en recherche préclinique en radiothérapie avec l'Institut Gustave Roussy, qui est le premier centre de recherche sur le cancer en Europe. Nous collaborons afin de mieux travailler sur la balance bénéfice-risque entre l'effet sur la tumeur et la toxicité sur les tissus sains.
Notre recherche est aussi internationale et européenne. À titre d'exemple, l'IRSN est présent dans 14 des 31 projets sélectionnés par la Commission européenne dans le champ de la sûreté nucléaire et de la radioprotection, dans le cadre de son quatrième appel à propositions de 2019. Ces projets concernent le vieillissement des structures et des équipements, notamment des matériaux métalliques, les études probabilistes sur le risque sismique ou la gestion du risque d'explosion d'hydrogène en situation accidentelle, les risques liés à l'exposition au radon ou la préparation d'un agenda stratégique concernant les applications médicales des rayonnements ionisants.
Pour la recherche, l'année 2020 a été riche de réalisations. Par exemple, l'Institut de recherche en communications optiques et microondes (IRCOM) possède l'une des rares installations dans le monde capable de cibler avec une précision micrométrique des éléments cellulaires ou subcellulaires avec un nombre défini de particules chargées et de suivre par vidéomicroscope les effets biologiques précoces d'une irradiation. La première campagne expérimentale de l'IRCOM a été conduite en 2020 et a déjà donné lieu à deux publications ; deux thèses ont débuté et deux collaborations ont été engagées, l'une avec le Commissariat à l'énergie atomique et aux énergies alternatives (CEA) et l'autre avec le CNRS.
Le projet PRIODAC (prophylaxie répétée par l'iode stable en situation accidentelle), coordonné par l'IRSN et financé par l'Agence nationale de la recherche (ANR), est un autre exemple de recherche. Il est destiné à déterminer la posologie et la fréquence d'administration d'iode stable aux personnes qui se trouveraient dans une zone de rejets accidentels radioactifs répétés ou prolongés comme il y a pu en avoir à Fukushima. Il s'agit d'évaluer les effets secondaires potentiels de la prise d'iode pour différentes catégories de population telles que les nourrissons, les enfants, etc. Ce projet a été prolongé de trois ans pour préciser la prophylaxie pour les femmes enceintes et les jeunes enfants.
En novembre 2020, l'IRSN a signé un accord avec l'Établissement français du sang et l'entreprise TreeFrog Therapeutics pour la production de greffons hématopoïétiques à partir de banques de cellules souches. Il s'agit d'une stratégie thérapeutique innovante du syndrome hématopoïétique consécutif à des sur-irradiations. Concrètement, cette stratégie vise à répondre à la destruction partielle ou totale des cellules souches sanguines, destruction qui conduit à la perte de l'immunité et à un défaut de coagulation du sang. Ce projet est le résultat de recherches conduites par l'IRSN en lien avec Sorbonne Université.
Dans le champ de la recherche en sûreté, des jalons importants ont également été atteints. Je peux citer :
L'IRSN a agi dans l'ensemble de ses champs d'intervention dans un contexte d'enjeux sans précédent, d'attentes et de demande s croissantes, qu'il s'agisse de sûreté nucléaire des installations existantes ou projetées, de sécurité nucléaire avec un contexte terroriste persistant , de la protection contre les rayonnements ionisants auxquels il est plus souvent recouru dans le domaine médical ou des attentes sociétales fortes en santé et environnement. Ces enjeux sont bien éclairés par le baromètre annuel sur la perception des risques par les Français que l'IRSN réalise tous les ans.
Dans un monde en constante évolution, la pérennité et la pertinence de notre action nécessitent une adaptation permanente aux nouveaux enjeux pour répondre à ces demandes et attentes croissantes. L'IRSN a engagé des démarches de transformation pour accroître son efficience dans un contexte de ressources publiques rares. Ces transformations sont numériques, managériales et sont aussi des transformations des modes de travail. Il s'agit de permettre à l'IRSN, aux femmes et aux hommes de l'Institut, de répondre à tout moment à ce besoin d'adaptation pour que la sûreté nucléaire, la sécurité nucléaire, la protection des personnes et de l'environnement soient au plus haut niveau dans une société actrice de la gestion des risques.
Merci beaucoup, monsieur le directeur général. Je donne d'abord la parole à Émilie Cariou, Stéphane Piednoir et Bruno Sido, rapporteurs pour l'Office de programmes d'étude portant sur des sujets nucléaires.
Je vous remercie pour cette présentation et pour les rencontres très régulières que nous avons avec vous. Le sénateur Bruno Sido et moi-même sommes chargés du rapport d'évaluation sur le plan national de gestion des matières et déchets radioactifs qui n'a toujours pas été publié par le Gouvernement. À chaque audition portant sur le nucléaire, j'ai l'occasion de rappeler que le Gouvernement est en retard de plus de deux ans, ce qui ne permet pas à la représentation nationale de produire son avis en temps opportun.
Pour revenir au rapport annuel de l'IRSN, j'aurais souhaité avoir quelques précisions sur les effectifs et le budget aujourd'hui alloué à l'Institut. Considérez-vous que vous disposez des moyens nécessaires pour réaliser toutes les recherches et toutes les expertises nécessaires, sachant que les travaux à venir dans les centrales, la gestion des démantèlements et des déchets, le post-Fukushima, etc. vont générer beaucoup de travail ?
L'avis de synthèse qui a été émis sur le réexamen périodique des réacteurs de 900 mégawatts dans le cadre de leur quatrième visite décennale montre-t-il que certains réacteurs présentent plus de problèmes que d'autres ? Bruno Sido et moi-même avons été mis en alerte sur trois réacteurs qui pourraient présenter des risques à moyen ou court terme, notamment avec un problème de vieillissement des cuves. Surveillez-vous spécifiquement ce sujet des cuves ? Où en sommes-nous et quels sont, à votre sens, les réacteurs qui peuvent poser des problèmes ?
Enfin, EDF a annoncé début mai un projet de construction de six réacteurs EPR 2 dans trois centrales françaises. À ce stade, les questions qui avaient été soulevées par l'IRSN dans son avis de juillet 2019 sur les options de sûreté du projet de réacteur EPR « nouveau modèle EPR 2 » ont-elles été traitées ?
Je vous remercie pour cette présentation et je me réjouis que nous sachions maintenir ce fil d'information entre vous et la représentation nationale. Je suis membre du conseil d'administration de l'IRSN mais ce type de présentation au plus grand nombre de parlementaires intéressés par les sujets nucléaires est important.
Votre exposé et le rapport qui nous a été livré permettent de se rendre compte de la diversité et de la multiplication des risques dans le domaine du nucléaire. Dans un passé récent, les risques semblaient pouvoir être circonscrits à des incidents majeurs au sein de la centrale. Aujourd'hui, nous savons que les risques sont souvent à l'extérieur et deux points du rapport ont attiré mon attention. L'un est la réception par l'IRSN de nouveaux équipements expérimentaux permettant d'optimiser la capacité de simulation d'accident majeur du réacteur. Nous passons ainsi au stade supérieur de la technologie pour nous prémunir contre ces accidents majeurs. Quels enseignements ont déjà pu être tirés de ces nouveaux équipements ?
Ma deuxième question porte sur les attaques de cybersécurité. Le rapport indique que des études sont lancées sur des simulations d'attaque et d'intrusion de cybercriminels au moyen de la plateforme HYDRA. Pouvez-vous nous dire où en sont ces études ?
Ma troisième question porte sur l'avenir du nucléaire. Nous ne sommes pas réunis aujourd'hui pour définir une politique énergétique mais pour discuter des risques nucléaires. Émilie Cariou a parlé à l'instant du vieillissement des cuves, qui est un vrai sujet sur les réacteurs de 900 mégawatts. Nous avons aussi parlé des EPR et des SMR. De votre point de vue, les SMR offrent-ils un véritable gain en termes de sûreté nucléaire ? Est-ce une alternative crédible, peut-être pas aux EPR, mais à la suite ? Je pense par exemple au programme Astrid qui, comme vous le savez, a été arrêté. C'est une mission sur laquelle je travaille depuis un peu plus de six mois avec le député Thomas Gassilloud. Est-ce véritablement une piste pour la France, comme dans d'autres pays ?
Dans le cadre du réchauffement climatique, on sait très bien que les énergies renouvelables n'arriveront pas à couvrir les besoins en électricité puisqu'il faudrait multiplier par des facteurs énormes le nombre d'éoliennes, etc. Tout le monde sait très bien, et dit de plus en plus, que le nucléaire au sens large du terme peut nous sortir de cette situation mais le problème du nucléaire est l'acceptabilité par la population, et par les populations plus généralement puisque c'est un problème mondial. En quoi l'IRSN peut-il participer à cette acceptabilité ?
Une question subsidiaire s'adresse plus précisément au directeur général adjoint, chargé des questions militaires et de défense. Le nucléaire dans les armées françaises concerne les sous-marins et le porte-avions. Un accident s'est produit il y a près de trente ans dans un sous-marin et a causé une dizaine de morts, dont le commandant de bord ; il n'était pas nucléaire puisque c'était une fuite de vapeur d'eau à très haute température. Pour autant, le problème de la sûreté nucléaire se pose sur le porte-avions et les sous-marins nucléaires, qu'ils soient lanceurs d'engins ou d'attaque. Les réacteurs utilisés sont similaires à ce qui existe actuellement au niveau civil mais – le président de l'Office comprendra pourquoi je pose cette question – avez-vous une idée de la sûreté des sous-marins d'attaque ex-soviétiques, c'est-à-dire utilisant des réacteurs au thorium ? Quel est le niveau de sûreté de ces réacteurs qui sont sous-critiques, me semble-t-il ? Je pose cette question parce que des spécialistes internationaux commencent à dire qu'il faut développer d'autres types de réacteurs que ceux employés en France ou aux États-Unis. Encore faut-il que ces nouveaux réacteurs au thorium aient une sûreté réelle et qu'ils soient acceptables par les populations.
Je prolonge le débat ouvert par Bruno Sido sur les questions d'acceptabilité et, plus généralement, la prise de conscience et l'intervention des acteurs de la société civile.
D'abord, l'IRSN a participé à la plateforme intégrée de retour d'expérience PIREX. Pouvez-vous nous parler de cette plateforme et de votre interaction avec elle ?
Vous avez organisé une journée de partage des connaissances sur le traitement des évènements significatifs avec l'Anccli. Quel retour d'expérience peut en être tiré ? Peut-on imaginer, au-delà du sujet qui a été traité, que les commissions locales d'information (CLI) puissent avoir un accès privilégié à certaines informations ? Peut-on imaginer que l'IRSN soit amené à intervenir à la demande des CLI pour des expertises ? Comment pourrait s'effectuer le lien entre les CLI, l'IRSN et l'État ?
Le rapport 2020 mentionne pour le risque radon le besoin d'impliquer durablement les acteurs locaux et d'identifier des moyens innovants à mettre en œuvre pour leur permettre d'être pleinement acteurs de la maîtrise de ce risque. Quelles sont les pistes envisagées pour ces moyens innovants ? Comment impliquer les acteurs locaux et leur permettre d'être acteurs de la maîtrise de ce risque ? L'IRSN réfléchit-il à la façon d'intégrer une recherche participative dans ses activités de recherche ?
Lorsque je dis recherche participative, cela peut être aussi bien faire émerger des axes de recherche correspondant à des demandes et des questionnements qui émanent de la société que mobiliser des acteurs de la société pour participer à des opérations de recherche. Cela se décline dans diverses sciences, en astronomie, en médecine, en chimie, dans bien des sujets selon des modalités différentes. Est-ce envisagé ou envisageable à l'IRSN ?
S'agissant du budget et des effectifs, l'IRSN est face à un contexte sans précédent d'attentes et de demandes croissantes sur la sûreté nucléaire, qui concerne tout à la fois les nouvelles installations qu'il faut expertiser – l'EPR, les SMR, Cigéo, le réacteur de recherche Jules Horowitz (RJH), le réacteur thermonucléaire expérimental international (ITER) – mais aussi les installations existantes – la prolongation d'exploitation des réacteurs, des réexamens sur des installations du cycle du combustible. En sûreté nucléaire, les enjeux sont importants et croissants.
La médecine fait de plus en plus appel aux rayonnements ionisants. Plus ils sont utilisés, notamment à forte puissance, plus le risque d'impact est élevé et plus il est important de maîtriser les effets adverses de ces traitements. J'ai évoqué la santé environnement : dès qu'un cluster de pathologies, notamment de cancers, est suspecté en un lieu, l'IRSN fait partie des organismes sollicités puisque la radioactivité peut être impliquée. En 2019, nous avons été sollicités trois fois sur des sujets de ce type. Cela renvoie à la problématique de l'impact des faibles doses, sur laquelle l'IRSN développe à la fois des recherches et des expertises.
Parmi les acteurs publics, l'IRSN est mieux traité que d'autres mais il est tout de même porteur d'une demande d'augmentation de ses moyens pour faire face à ces attentes croissantes. Je précise que le budget de l'Institut a baissé d'une petite dizaine de pourcents depuis une dizaine d'années et, l'expertise étant à juste titre prioritaire, la baisse des moyens a essentiellement porté sur la recherche : celle-ci représentait 50 % du budget de l'IRSN, elle n'est plus que de 40 %. Si nous n'y prenons pas garde, la poursuite de cette tendance conduira à ce que l'IRSN ne soit plus en mesure d'effectuer les recherches nécessaires à son expertise. Ma présentation entendait justement vous montrer le caractère essentiel du lien entre expertise et recherche. Sur les trois prochaines années, nous avons évalué nos besoins supplémentaires à 17 personnes et sept millions d'euros.
L'IRSN fait des efforts de productivité et d'efficience, notamment avec ses plans de transformation. Dans nos relations avec les autorités de sûreté, nous avons beaucoup travaillé sur l'efficacité de notre processus de traitement des dossiers par des démarches de priorisation. Avec PIREX, nous développons des outils numériques pour l'échange de documents mais aussi en appui de notre expertise.
Une question portait sur le vieillissement des cuves. Les cuves sont l'un des composants non remplaçables d'une centrale nucléaire. Ces composants sont peu nombreux – la cuve, l'enceinte – mais ils sont essentiels. La cuve est soumise à un rayonnement neutronique puisqu'elle est au plus proche du cœur. Ce rayonnement peut avoir un effet sur la matière et, dans certaines conditions, notamment accidentelles, le fait que des défauts existent pourrait conduire à des situations inacceptables.
Dans le cadre de la prolongation d'exploitation des réacteurs au-delà de quarante ans, l'IRSN a étudié de près ce sujet. Nous avons analysé les évaluations de flux neutronique sur les cuves, nous nous sommes interrogés sur la qualité des matériaux et sur la présence de défauts puisque, pour qu'une situation devienne inacceptable, il faut le cumul d'un défaut préexistant et de ce que nous appelons un chargement, par exemple une injection d'eau plus froide à l'occasion d'une fuite sur le circuit primaire. Après avoir étudié l'ensemble de ces éléments, nous arrivons à la conclusion que, de manière générique, les cuves sont aptes au service pour encore dix ans, sachant qu'il faut un contrôle des cuves lors de chaque réexamen.
Les cuves sont vérifiées tous les dix ans par des moyens spécifiques pour identifier les défauts et surtout caractériser l'évolution de ces défauts. Il existe des défauts préexistant sur les cuves, par exemple celles des réacteurs de Tricastin. Ces défauts sont stables mais font l'objet d'une attention particulière. Aujourd'hui, sous réserve de la vérification faite à l'occasion des visites décennales, l'IRSN a considéré que ces cuves peuvent être utilisées encore dix ans de plus.
Ce qui différencie le plus les centrales nucléaires est ce que nous appelons les agressions externes et la situation géographique, bien plus que les réacteurs eux-mêmes qui se ressemblent beaucoup. Les agressions externes sont les risques d'inondation et de séisme.
Dans le cadre de la prolongation au-delà de quarante ans, l'IRSN a aussi identifié un sujet lié à la qualité des radiers des réacteurs, selon qu'ils sont plus ou moins siliceux, vis-à-vis de leur comportement en accident grave. Ce sujet est en cours d'étude. Nous attendons les résultats de l'expérimentation qu'EDF réalise aux États-Unis sur l'interaction entre le corium et le béton du fond des bâtiments réacteurs. Cela concerne 14 réacteurs sur lesquels EDF doit apporter des réponses complémentaires.
Sur le réacteur EPR 2, la position de l'IRSN est à ce jour la suivante : l'Institut s'était exprimé en 2017 ou 2018 sur le dossier d'options de sûreté d'un réacteur qui s'appelait EPR NM, ou « EPR nouvelle génération ». C'était une évolution du modèle EPR prenant en compte le retour d'expérience du réacteur EPR existant, notamment au niveau de la construction, et qui intégrait le retour d'expérience des réacteurs en fonctionnement. EDF y a aussi intégré des retours d'expérience en termes de complexité potentielle. Le réacteur EPR NM évolue donc au niveau de sa chaudière et de ses bâtiments annexes, tout en restant dans l'idée générale du bâtiment du réacteur EPR.
L'IRSN a considéré que les dispositions proposées par EDF avaient vocation à ce que le niveau de sûreté de ce nouveau type de réacteur soit au moins équivalent à celui de l'EPR. Nous avons notamment jugé tout à fait bénéfique la diversification de ce que nous appelons les fonctions supports des fonctions de sûreté, alimentations électriques et dispositifs de refroidissement. À l'époque, nous n'étions pas favorables à l'augmentation de puissance prévue pour ce réacteur.
EDF a alors proposé un réacteur dit EPR 2, celui que vous avez évoqué. Par rapport à l'EPR NM, il revient à la chaudière nucléaire de l'actuel EPR, introduit des modifications sur les bâtiments annexes, remplace la double enceinte par une enceinte simple avec un liner. EDF a aussi choisi de ne mettre que trois boucles au lieu de quatre. Tout cela ne remet pas en cause l'avis de l'IRSN sur le dossier d'options de sûreté. Il faut maintenant aller dans le détail puisque les options de sûreté sont très générales. Nous attendons le dossier de sûreté à proprement parler, qui devra accompagner le processus d'autorisation.
Pour répondre aux questions de monsieur Piednoir, l'accident majeur est « le fonds de commerce » de l'Institut. D'ailleurs l'IRSN est probablement le seul organisme à travailler majoritairement sur ce sujet. Par exemple, dans les années 2000, l'IRSN a mis en chantier un code de simulation pour les accidents graves et les accidents majeurs. Cet investissement de 20 ans s'appuie sur de nombreuses expérimentations, de nombreux programmes de recherche développés notamment par l'IRSN, de façon partenariale. Aujourd'hui, ce code de calcul devient une référence internationale et se substitue dans un certain nombre de cas au code qui faisait jusqu'à présent référence, le code MAAP (Modular accident analysis programme) qui est américain. C'est assez flagrant : ce code était cédé gratuitement aux autorités de sûreté et aux « IRSN » étrangers dans le cadre de recherches académiques ; nous constatons aujourd'hui que des industriels veulent l'acquérir. Évidemment, l'IRSN vend ce code, qui intègre les résultats de toutes nos recherches. Je rappelle que, pour l'IRSN, les codes de ce type ont une double vertu : faire des calculs à des fins de modélisation et intégrer l'ensemble de la connaissance à un moment donné. Ce code est ainsi devenu le code de référence sur les accidents graves.
L'IRSN continue à travailler sur les différents types d'accidents. Suite à Fukushima, nous avons engagé deux programmes importants, dont le programme PERFROI sur le refroidissement du cœur en situation accidentelle. Nous venons de réaliser avec un ingénieriste canadien, voici quelques semaines, une expérimentation unique à ce jour au niveau mondial. L'idée est de simuler des assemblages de crayons combustibles. En cas d'accident nucléaire ou d'échauffement, les crayons combustibles se gonflent de manière localisée et la circulation de l'eau autour d'eux en est modifiée. Nous avons reproduit le ballonnement, ce qui avait déjà été fait, mais nous avons surtout reproduit la puissance dégagée par ce ballonnement, ce qui est tout à fait novateur. Ce programme est très lié à l'accident de Fukushima qui avait montré les faiblesses potentielles des piscines d'entreposage. En fait, est en cours un programme visant à étudier les conditions de refroidissement d'une piscine en situation d'accident.
Avez-vous par exemple la possibilité de simuler un accident de type Fukushima ? Sinon, quel type d'accident pouvez-vous simuler ? Comment cela se présente-t-il ? Avec quels paramètres ? quelles interfaces ?
Le code ASTEC (Accident Source Terme Evaluation Code) a évolué. Au début, il était très centré sur les réacteurs à eau pressurisée de type français. Maintenant, cette plateforme peut couvrir un vaste spectre de situations accidentelles, pour tout type de réacteur et tout type de combustible. Nous essayons actuellement de l'étendre à des installations du cycle du combustible. Le spectre de simulation est donc très large et la simulation est possible depuis le début de l'accident, à partir d'une brèche primaire par exemple, jusqu'à l'évaluation de l'importance des rejets causés par cette défaillance. Ce code est en quelque sorte un couteau suisse. Nous avons aussi prévu d'intégrer les nouvelles générations de combustibles, ceux qui sont appelés Accident tolerant fuel.
Pour répondre sur la cybersécurité et la plateforme HYDRA, il faut rappeler que l'arrivée de l'IRSN dans le domaine de la cybersécurité est assez récente puisque le bureau qui s'en occupe a été créé en 2017 et a atteint son plein effectif fin 2018 - début 2019.
Très vite, l'idée est venue que, dans le domaine du nucléaire et pour d'évidentes raisons de sûreté, il n'était pas possible de tester des installations réelles mais tout au plus des simulateurs. Il fallait donc développer un concept qui permette de simuler des installations et de procéder à des recherches de vulnérabilité et de cyberprotection.
Une solution a été développée entre 2019 et maintenant, avec l'aide d'Airbus Cybersécurité, à partir d'un matériel surtout utilisé dans le domaine de la formation. Il est photographié dans le rapport à la page 33 : il s'agit un petit caisson, sur roulettes et transportable, qui permet, à l'aide de serveurs, de simuler différents composants, par exemple ceux d'un contrôle commande.
La première étude que l'IRSN a mise en place a justement repris l'architecture logicielle d'un contrôle commande pour faire des recherches de vulnérabilité et voir s'il était possible de simuler des scénarios de cyberattaque. Cette étude est toujours en cours. Lorsqu'elle sera terminée, nous la partagerons avec le Haut fonctionnaire de défense et de sécurité du ministère de la transition écologique, qui est l'autorité de sécurité nucléaire, et vraisemblablement avec les exploitants.
L'intérêt de cette plateforme est qu'elle est hybride, c'est-à-dire que l'on peut faire de la simulation logicielle mais aussi la raccorder à des équipements réels. L'Institut s'intéressera à ce deuxième axe de travail, par exemple avec l'étude des vulnérabilités des systèmes de protection à base de caméras ou de capteurs variés. Il sera possible de raccorder des capteurs réels sur un système qui simulera l'architecture logicielle d'un système de protection. Nous y travaillons et les premiers résultats sont très prometteurs.
Je souligne donc qu'en quasiment deux ans, nous avons réussi à passer de la feuille blanche à une première phase de réalisation concrète. Ces travaux revêtent évidemment une certaine confidentialité mais commencent à être reconnus. Certaines personnes se rapprochent de nous parce qu'elles souhaitent travailler avec nous. Le monde de la cybersécurité est tout de même un très petit monde. En croisant le domaine de la cybersécurité avec celui du nucléaire, les effectifs compétents sont encore plus réduits.
Les débuts sont donc très prometteurs : de premiers résultats sont disponibles sur le contrôle commande et demain, probablement, sur les systèmes de sécurité et protection. Nous développons par ailleurs une réflexion sur la manière de travailler, des partenariats et coopérations avec des personnes qui auraient les mêmes objectifs que nous.
Une question a été posée sur l'avenir du nucléaire. L'IRSN n'est pas chargé de définir les politiques énergétiques, et ceci est très sain. Notre responsabilité, voulue par le Parlement et le Gouvernement, consiste à faire en sorte que si le nucléaire est utilisé, il doit être très sûr. Le travail de l'IRSN est précisément d'évaluer sur les plans scientifique et technique la capacité des projets et des industriels à atteindre l'objectif d'un très haut niveau de sûreté, de protection contre les rayonnements ionisants et de sécurité.
Sur le parc existant, c'est le travail fait au travers des exercices de réexamen déjà évoqués à plusieurs reprises pour les réacteurs de 900 mégawatts et pour ceux de 1 300 mégawatts, sur lesquels nous allons commencer à travailler. Les réacteurs de 1 300 mégawatts ressemblent à ceux de 900 mégawatts mais avec quelques différences, notamment au niveau de l'enceinte de confinement. L'IRSN a d'ores et déjà engagé des travaux sur ce point, notamment des travaux de recherche.
Les SMR sont des réacteurs qui attirent beaucoup l'attention au niveau international puisqu'il en existe plus de 50 concepts dans le monde. Certains sont déjà construits d'ailleurs : la plateforme flottante des Russes porte un SMR.
Il existe différents types de SMR, à eau pressurisée, à sodium, etc. Je parlerai ici des SMR à eau pressurisée, les plus proches des réacteurs français actuels. Dans ce domaine, small is beautiful, c'est-à-dire que j'ai un a priori positif, du fait que ces réacteurs sont de faible puissance et présentent des caractéristiques favorables vis-à-vis de la gestion d'un accident nucléaire. En effet, en cas de création de corium, le rapport entre la surface (grandeur qui dimensionne la capacité d'évacuation de la puissance résiduelle) et le volume (grandeur qui dimensionne la génération de la puissance résiduelle qu'il faut évacuer) est plus favorable que sur des réacteurs de forte puissance.
Les promoteurs de ce type de réacteurs – le NuScale américain ou le Nuward français – mettent beaucoup en avant l'utilisation de systèmes passifs pour assurer la sûreté de ces réacteurs. L'idée est de dire qu'aucune intervention humaine n'est nécessaire pendant plusieurs jours. De tels systèmes existent déjà dans les réacteurs actuels. Par exemple, pour arrêter un réacteur en situation d'urgence, des barres de contrôle tombent et la chute se fait par l'ouverture d'un électroaimant. C'est passif, c'est gravitaire. Il existe aussi un certain nombre de réservoirs sous pression, qui en cas d'accident, déversent de l'eau dans le circuit primaire du simple fait de l'écart de pression entre le réservoir et le circuit primaire. Les recombinants à hydrogène, qui sont des systèmes catalytiques, sont aussi des systèmes passifs.
Les industriels qui promeuvent les SMR veulent accroître l'utilisation de ces dispositifs. L'IRSN considère qu'il est nécessaire d'affiner les connaissances, tout simplement pour vérifier que les phénomènes naturels qui sont censés se produire en fonctionnement normal mais surtout en fonctionnement accidentel, sont bien ceux qui se produiront, que l'on a suffisamment de connaissances pour maîtriser ces phénomènes passifs et être sûrs que le réacteur fonctionnera comme prévu.
Dans ce domaine, l'IRSN travaille sur un projet de recherche dans le cadre du plan de relance. Il consiste à créer une plateforme expérimentale pour étudier des phénomènes thermohydrauliques dans des tuyauteries et dans une piscine. En effet, l'enceinte de confinement des SMR sera métallique, le tout étant immergé dans une piscine pour assurer le refroidissement. Nous voulons vérifier que les phénomènes thermohydrauliques annoncés comme permettant la maîtrise des situations accidentelles sont effectifs. Deux projets sont en cours de discussion, dont un de 9 millions d'euros pour lequel je suis plutôt optimiste. Je pense qu'il aura un certain succès international parce que l'IRSN n'est pas le seul à se poser cette question.
Astrid est un réacteur de génération IV, de la catégorie des réacteurs au sodium qui ont des caractéristiques favorables, notamment une grande inertie thermique et une pression de fonctionnement inférieure à celle des réacteurs à eau pressurisée. Ils ont des inconvénients, dont l'utilisation du sodium qui réagit avec l'eau ou l'air de manière éventuellement violente. Un autre sujet, plus fondamental, est le fait que ce sont des réacteurs dont le suivi en service est beaucoup plus compliqué parce qu'il faut les vidanger. Cette difficulté avait été identifiée à l'époque.
L'IRSN a peu travaillé sur ce sujet puisqu'Astrid a été arrêté. L'un de nos commentaires était qu'un prototype de ce type doit évidemment répondre aux besoins de l'industriel mais aussi aux enjeux de sûreté. L'idée était que ce réacteur soit instrumenté et préparé pour permettre aussi un travail sur les questions de sûreté.
Monsieur Sido a posé une question sur le réchauffement climatique. L'IRSN est tout à fait concerné par ce sujet. Dans le cadre des réexamens de sûreté, l'impact des agressions externes, notamment les inondations ou les canicules, est révisé régulièrement et les industriels doivent intégrer ces évolutions dans la durée.
L'IRSN dispose d'un comité d'orientation des recherches (COR) pour l'éclairer sur les recherches à conduire. Ce comité rassemble des associations, des industriels, des élus, des représentants de l'administration, des experts techniques. Nous avons conduit l'année dernière un travail pour identifier les sujets qu'il fallait approfondir par la recherche en lien avec la sûreté nucléaire et la radioprotection, etc. Le réchauffement climatique en fait partie. Actuellement un groupe de travail du COR réfléchit aux pistes qu'il faudrait explorer pour mieux intégrer les préoccupations liées au réchauffement et au dérèglement climatiques dans nos analyses de sûreté nucléaire et de radioprotection.
Quel rôle joue l'IRSN en matière d'acceptation du nucléaire ? L'IRSN n'est pas là pour dire qu'« il faut » ou qu'« il ne faut pas ». Notre mission est d'assurer que la sûreté est à un bon niveau. Par contre, nous avons clairement un rôle à jouer pour la mise sur la table des enjeux techniques et leur discussion. Par exemple, voici quelques semaines, une rencontre a eu lieu entre les CLI, qui sont des partenaires privilégiés, l'ASN et EDF sur le sujet de la tenue des cuves, qui est soulevé très fréquemment par la société civile, par les CLI. Mettre sur la table des enjeux techniques, expliquer pour quelles raisons l'IRSN répond de la manière dont il répond, c'est typiquement une contribution de l'IRSN au débat.
J'ai expliqué ce que nous pensions de la prolongation de l'étude jusqu'à 50 ans.
Cela renvoie d'ailleurs à la question posée par monsieur Villani sur l'interaction de l'IRSN avec la société civile. Cette interaction vise à permettre aux gens de se faire une opinion éclairée techniquement et scientifiquement, puisqu'il s'agit d'un risque technique et scientifique. L'IRSN doit multiplier les occasions de présenter ses résultats techniques et de répondre aux interrogations qui lui sont adressées. Depuis quelques temps d'ailleurs, en lien avec l'ASN, nous intégrons dans nos avis des réponses à des questions qui peuvent nous être posées par la société civile. Ainsi, nous avons publié récemment un avis sur la densification des piscines de La Hague et nous en avons fait une version commentée, comme nous le faisons régulièrement, pour aider les lecteurs à décrypter cet avis. Nous décryptons donc l'avis adressé à l'ASN, dans lequel avaient été explicitement intégrées des réponses à des questions que posaient des CLI.
Aujourd'hui, à ma connaissance, il n'existe pas de réacteur de propulsion navale qui utilise des sels fondus, ce que vous appelez les réacteurs au thorium. La quasi-totalité des réacteurs de propulsion navale sont des réacteurs à eau pressurisée, y compris en Russie.
En revanche, il est exact que, dans les années 1970, la marine russe s'est dotée d'un petit nombre de sous-marins qui fonctionnaient avec des réacteurs à neutrons rapides. Ils étaient extrêmement intéressants en termes de compacité et conféraient à ces bâtiments une très grande vitesse. Il s'agissait des sous-marins de la classe Alpha. Ces sous-marins ont été arrêtés après une vingtaine d'années en raison de la complexité de leur maintenance, car les réacteurs étaient extrêmement optimisés. À ma connaissance, il n'existe pas aujourd'hui de projet de navigation avec des réacteurs à sels fondus alors qu'effectivement, plus d'une dizaine de pays réfléchissent aujourd'hui à des SMR reposant sur des systèmes de sels fondus. Je pense qu'il faudra attendre qu'un certain nombre de ces réacteurs soient entrés en service et que la technologie soit suffisamment maîtrisée, notamment l'entretien, avant d'envisager de navaliser ce type de réacteur. En effet, la navalisation d'un réacteur pose des problèmes particuliers liés à un environnement beaucoup plus complexe qu'à terre.
Vous avez parlé de l'accident de l' Émeraude. Il s'agit d'un accident de sécurité plongée puisque c'est le percement d'un collecteur de refroidissement à l'eau de mer d'un condenseur qui est à l'origine de l'accident. Les Russes ne communiquent absolument rien sur la sûreté de leurs réacteurs navals. C'est bien compréhensible. Ils commencent bien souvent par navaliser non pas sur des sous-marins mais sur des bâtiments de surface ou sur des barges. Il en est ainsi du dernier projet qu'ils ont mis en place sur l' Akademik Lomonossov : il s'agit d'une barge sur laquelle sont embarqués des réacteurs à eau pressurisée destinés à alimenter en électricité des villes très éloignées en Sibérie.
Je reviens aux questions du président de l'Office portant sur la prise de conscience des acteurs de la société civile. L'IRSN poursuit, depuis sa création voici vingt ans, un objectif d'ouverture à la société. Il est d'ailleurs inscrit dans notre contrat d'objectifs qui comporte quatre axes stratégiques, sur l'expertise, la recherche, la crise et l'ouverture à la société.
L'Institut dispose d'une équipe dédiée qui anime l'ouverture à la société. Ce n'est pas une démarche de porte-parole : nos experts vont rencontrer la société civile, les commissions locales d'information, les experts non institutionnels, etc. Les experts de l'IRSN sont accompagnés car ils ne font pas le même métier que leurs autres collègues de l'Institut et ce n'est pas forcément un exercice facile. Je constate que les experts y prennent goût, qu'ils sont attachés à expliquer à des gens intéressés pourquoi ils arrivent à leurs conclusions.
Les commissions locales d'information et l'Association nationale des commissions locales d'information sont naturellement des partenaires privilégiés. Une réunion a lieu chaque année afin d'échanger sur les différents projets. Nous cherchons aussi à aider les membres des CLI à renforcer leurs compétences. Depuis plusieurs années, l'IRSN a avec l'Anccli et les CLI, comme avec l'ASN et les industriels, des dialogues techniques sur tout sujet technique un peu complexe. Y sont par exemple abordés des sujets comme les taux de carbone dans la cuve de l'EPR, les transports de matières radioactives, le lien entre rayonnements ionisants et la santé, etc.
Les questions posées sur PIREX et les évènements significatifs couvrent deux facettes d'un même projet. L'un des moteurs essentiels de la sûreté nucléaire est le retour d'expérience, donc la capacité à tirer le maximum d'enseignements des évènements qui se sont produits. Fort heureusement, ils n'ont pas systématiquement des conséquences concrètes négatives mais ils sont porteurs de beaucoup d'enseignements. L'autre moteur de la sûreté nucléaire est constitué de tout ce qui a trait à la recherche sur les accidents graves. Ce sont les deux grands piliers de la sûreté.
L'IRSN est destinataire d'une quantité extrêmement élevée de données de retour d'expérience. Le projet PIREX consiste à utiliser les outils de l'intelligence artificielle et du big data pour essayer d'extraire de cette énorme quantité de données des informations que nous n'aurions pas vues, des signaux faibles. Le projet a obtenu un financement du fonds de transformation de l'action publique. Il devrait nous permettre de gagner en efficacité.
Dans le cadre de la réflexion sur l'utilisation des évènements dits significatifs, c'est-à-dire tout ce que nous déclarent les exploitants, notamment EDF, nous nous sommes aussi interrogés sur les attentes de la société civile. J'ai déjà évoqué le programme de transformation de l'IRSN. Nous avons notamment mis en place un IRSN Lab – cela se fait beaucoup actuellement –, c'est-à-dire une structure et des méthodes pour réunir des personnes qui cherchent à construire la réponse à un problème donné. L'idée est d'impliquer directement les utilisateurs, avec des circuits courts de décision et un droit à l'erreur : lorsque cela ne marche pas, on passe à autre chose. La démarche de l'IRSN Lab a été appliquée à la manière d'exploiter les éléments significatifs, notamment en associant les commissions locales d'information pour mieux cerner leurs attentes. Le résultat sera intégré dans notre processus de traitement de ces événements.
Une question portait sur l'accès privilégié des commissions locales d'information à certaines informations. L'IRSN est très sollicité par les CLI : par exemple, il a reçu une centaine de demandes pendant la pandémie. Nous nous efforçons d'y répondre. Les outils de télétravail ont, d'une certaine manière, facilité le processus puisque, avant la pandémie, les experts de l'IRSN se rendaient sur place. Des outils ont été développés en recherchant un bon compromis entre le présentiel et le distanciel, comme pour toutes les activités. Nous sommes fréquemment sollicités, soit pour des sujets locaux, soit pour des sujets plus nationaux.
Cela peut être des questions sur la présence de tritium dans une nappe phréatique. Après la publication de l'avis commenté sur la densification des piscines de La Hague, nous avons reçu un questionnement, un très bon questionnement d'ailleurs, sur les combustibles entreposés dans ce qu'Orano appelle des paniers et sur l'un des risques dont il faut se prémunir, l'accident de criticité qui pourrait se produire si la réaction nucléaire s'emballe. Les parois des paniers sont constituées de matériaux neutrophages. L'IRSN a été interrogé sur le vieillissement des paniers et des matériaux neutrophages. En particulier, si un panier bascule, il ne faut pas que le matériau neutrophage se casse.
Les questions sont en général très techniques, mais certaines sont liées à la politique énergétique. Nous répondons évidemment que, même si la question est légitime, elle ne concerne pas l'IRSN, qui n'est pas le bon interlocuteur.
Je verrais d'un bon œil que l'IRSN puisse réaliser des interventions pour les CLI. Cela renvoie à la question du process et des moyens que nous pouvons y consacrer. Les textes prévoient que des organismes comme l'Agence nationale de sécurité sanitaire de l'alimentation, de l'environnement et du travail (Anses) ont la capacité de répondre à des questions de parties prenantes. J'y suis favorable sur le principe mais cela resterait à organiser.
Une question a été posée sur le radon. C'est un gaz radioactif issu du sous-sol, en général lié à la présence d'uranium, qui se propage par les fissures du sous-sol. Il a deux caractéristiques dont l'une est défavorable : il est radioactif et, parmi ses descendants se trouve le polonium. Si du radon est respiré, du polonium se dépose dans l'organisme, ce qui n'est évidemment pas favorable. En revanche, la durée de vie du radon est courte, de l'ordre de 2,4 jours. Cela signifie que, s'il est piégé quelque temps, il disparaît.
Le sujet « radon » se pose dans beaucoup de pays car ce gaz est reconnu comme cancérogène. L'IRSN reçoit régulièrement des questions en santé environnement, notamment sur les enfants. Aujourd'hui, d'après les études, le radon n'intervient pas dans d'autres pathologies que le cancer du poumon. L'Institut national du cancer (INCa) a rendu publique en 2018 une étude sur les cancers environnementaux, c'est-à-dire sur les cancers liés non à la génétique mais à l'environnement au sens large, l'alcool, le manque d'exercice, les lésions radio-induites, etc. L'étude s'intéressait évidemment aux rayonnements ionisants.
C'est le Centre international de recherche sur le cancer (CIRC) qui a mené l'étude pour l'INCa. Il a conclu qu'environ 140 000 des 300 000 cancers annuels sont attribuables à l'environnement, dont 6 000 cancers pourraient être attribuables aux rayonnements ionisants, dont une bonne moitié serait liée au radon. Cette étude est publique. Les résultats proviennent de calculs : l'on sait bien que les pathologies sont rarement rattachables au stresseur d'origine, à quelques exceptions près. Les calculs montrent donc que 3 000 à 4 000 personnes chaque année ont un cancer lié au radon. C'est un sujet de santé publique.
Pourquoi prendre des actions au niveau local ? L'intérêt est de rendre les gens acteurs de la gestion du risque. Il se trouve que, pour le radon, le problème n'est pas si compliqué. Il faut d'abord l'identifier. La première question est donc : comment détecter la présence du radon ? Il s'agit de faire une mesure. Ensuite, dans la plupart des cas, la remédiation est assez simple : elle consiste à étanchéifier le sol, puisque le radon arrive par les fissures du sous-sol, et à créer une aération.
L'IRSN a fait une expérience dans le centre de la France voici deux ou trois ans. En lien avec les élus locaux, nous avons proposé aux habitants d'une communauté de communes de venir chercher gratuitement des détecteurs de radon et de les installer chez eux. Nous leur avons expliqué comment il fallait faire car la mesure du radon n'est pas très simple et il faut suivre un protocole. Dans cette zone ayant un important potentiel radon, 800 foyers sont venus chercher les détecteurs et les ont déployés. Trois grandes catégories sont alors apparues : à certains endroits, le niveau de radon était inférieur au seuil de référence qui est de 300 becquerels par mètre cube ; dans la deuxième catégorie qui était numériquement la plus importante, le niveau de radon se situait entre 300 et 1 000 becquerels par mètre cube ; la dernière catégorie concernait des endroits où le niveau de radon était encore plus élevé. Dans une deuxième étape, en lien avec les administrations, les élus locaux, la Fédération française du bâtiment (FFB) et des lycées techniques, l'IRSN a agi comme animateur pour proposer des méthodes simples pour remédier à ce problème. Certains foyers l'ont fait, d'autres ont souhaité arrêter l'expérience, tout se déroulant sur la base du volontariat. Le résultat a été plutôt bon ; pour ceux qui acceptaient d'entrer dans la démarche, des mesures de radiations ont été faites et quelques cas ont été suivis de plus près parce que les concentrations en radon étaient très importantes.
Une telle démarche a vertu d'exemple. L'IRSN ne fera pas cela dans toutes les communes de France mais l'expérience démontre que, sur un tel sujet de santé publique, qui concerne tout de même 3 000 à 4 000 cancers du poumon, il est possible de prendre des mesures sans forcément que ce soit dans le cadre d'une intervention étatique.
La dernière question porte sur la recherche participative. J'ai indiqué que l'IRSN dispose d'un comité d'orientation des recherches, un comité de type Grenelle ayant vocation à intégrer les attentes de la société. Au sein du COR se trouvent des élus, des associations et des organisations syndicales ainsi que des experts et des industriels. Par ailleurs, de manière très concrète, nous construisons dans la région de Dunkerque un projet sur l'exposome, sur l'effet des stresseurs cumulés. La région de Dunkerque a été choisie parce qu'il s'y trouve à la fois une grande centrale nucléaire avec six réacteurs, beaucoup d'industries et de l'agriculture. Ce programme de recherche nommé Orchidée porte donc sur l'impact de multi-stresseurs sur l'environnement et sur la santé. Une discussion est en cours avec l'ANR sur ce projet.
Nous avons un autre programme de recherche, nommé Sursaut, qui s'intéresse à la surveillance qu'il faut organiser autour d'un site de stockage de déchets. Dans ce programme, l'IRSN interagit avec les populations. Ce sont deux exemples de recherche participative.
Ma question porte sur l'évaluation des doses reçues en Polynésie française lors des essais nucléaires. L'IRSN a répondu à une demande à ce sujet. L'évaluation qu'il a réalisée sur les doses reçues permet-elle de statuer maintenant, j'allais dire définitivement, sur les cas de contamination ? J'ai été plusieurs fois sollicitée dans mon département par d'anciens travailleurs qui s'estiment victimes. Vous avez parlé tout à l'heure de cluster de cancer. Est-il tenu compte de toutes les maladies, cancer ou autres ? Des tableaux de tous les personnels présents pendant les années 1975-1981 lors de ces essais nucléaires ont-ils été faits ? Sommes-nous au bout de cette démarche ?
De la radioactivité a été détectée dans l'atmosphère dans le nord de l'Europe l'année dernière, entre le 28 juin et le 22 juillet. Le rapport de l'IRSN indique qu'il n'a pas été détecté de radioactivité dans le nord de la France. En savez-vous un peu plus maintenant ? J'ai cru comprendre que l'origine exacte de cette pollution radiologique restait inconnue.
Je souhaite enfin vous interroger sur le projet TRAJECTOIRE qui étudie le parcours des contaminants détectés dans les grands bassins versants afin d'établir un modèle prédictif. Ce projet a démarré voici un an et demi. Malgré la pandémie, a-t-il pu suivre son cours ? Où en est-il actuellement ?
La sûreté des installations EPR repose bien sûr largement sur leur conception et elles ont fait leurs preuves. Comment peut-on garantir le niveau de compétences et, de façon plus générale, la culture nucléaire dans la cascade des contrats de sous-traitance relatifs à la maintenance ? On connaît le fonctionnement du monde du travail, notamment les difficultés que rencontrent les entreprises pour recruter des compétences reconnues, ce qui a une importance particulière dans le domaine nucléaire. Comment l'IRSN s'assure-t-il de la qualité des contrats de sous-traitance ? Comment peut-on conserver une véritable culture nucléaire ?
L'IRSN participe demain matin à une table ronde organisée par le ministère de la santé sur la Polynésie. Qu'a fait l'IRSN sur ce sujet ? Depuis 1962, il dispose en Polynésie une petite équipe dont la tâche est de mesurer la radioactivité dans l'environnement. Cette activité a longtemps été réalisée tous les ans et nous avons décidé de le faire maintenant tous les deux ans. Pour mesurer la radioactivité artificielle en Polynésie, des prélèvements sont réalisés dans sept îles des cinq archipels, afin d'étudier la contamination de l'eau, de l'air et de ce que consomme la population. Nous sommes attentifs à ce qui est local mais aussi à ce qui vient d'ailleurs, voire de métropole.
Les calculs montrent qu'aujourd'hui, le niveau de radioactivité artificielle est très bas, à savoir un millième de la radioactivité naturelle. Tous ces résultats font l'objet de rapports publics. Rien ne montre de contamination marine liée à l'accident de Fukushima car de telles contaminations restent plutôt dans l'hémisphère où elles sont apparues.
L'évaluation à laquelle vous faites référence est vraisemblablement celle qui a été demandée à l'IRSN par le comité d'indemnisation des victimes des essais nucléaires français (CIVEN). Cette évaluation a été faite par l'IRSN sur la période 1975-1981 – donc après les essais – puisque cette période n'avait pas encore été couverte.
Le travail de l'IRSN est basé sur trois types d'informations :
L'ordre de grandeur de l'exposition estimée est un dixième de la limite d'un millisievert, donc 100 micro-sieverts, pour la période 1975-1981.
La question que vous soulevez est complexe et la table ronde de demain a pour objectif de discuter de l'exhaustivité des évaluations réalisées.
S'agissant de la mesure de la radioactivité dans l'air, l'IRSN a une mission prévue par les textes de surveillance de l'environnement. Plusieurs réseaux sont utilisés dans ce but, dont le réseau Téléray constitué de 450 balises fixes – environ une par département et un plus grand nombre autour des installations nucléaires – et de 50 balises mobiles qui peuvent être déployées selon les besoins, notamment en cas d'accident. Ces 500 balises mesurent le rayonnement. L'IRSN gère aussi une quarantaine de systèmes de prélèvement d'aérosols, c'est-à-dire des petites poussières. Ce sont de gros aspirateurs qui aspirent l'air à très haut débit et le font passer dans des filtres. La radioactivité des filtres est ensuite mesurée.
Vous vous souvenez peut-être que, lors de la détection de la présence de ruthénium dans l'air, en 2018 je crois, des traces avaient pu être détectées dans le sud de la France. Pour la contamination dont il est question, nos systèmes de détection n'ont rien signalé. Le niveau de contamination était donc inférieur à leur capacité de détection, qui est pourtant très bonne. Cela signifie que la contamination en France était très faible.
L'IRSN travaille sur ces sujets avec le réseau Ring O Five, ainsi nommé parce que, à l'origine, il était constitué de cinq organismes. Les participants sont maintenant beaucoup plus nombreux. Nous partageons nos données et, d'ailleurs, la plupart des membres du réseau les rendent publiques.
À partir des conditions météorologiques et des mesures de contamination, on peut essayer de reconstituer d'où vient la contamination. Pour celle dont il est question, il n'existait pas d'enjeu sanitaire dans les pays concernés puisque le niveau de radioactivité était très faible. Le rétrocalcul n'est pas forcément très précis mais identifie comme source une zone couvrant l'ouest de la Russie et les pays baltes. Il me semble que la signature était celle de rejets issus d'une centrale avec plusieurs types de radionucléides. C'est la méthode que l'IRSN utilise. Il ne peut guère en dire plus si les pays concernés ne disent pas de quoi il s'agit ; en l'espèce, il me semble que personne n'a levé le doigt pour dire « cela vient de chez nous ».
Le projet TRAJECTOIRE, financé par l'ANR, vise à identifier les polluants dans de grands bassins versants. Cela rejoint ce que j'ai évoqué sur l'exposome. Selon une tendance qui se développe à l'heure actuelle, ce n'est pas un projet dédié aux radionucléides mais touchant à l'ensemble des polluants. L'idée est d'essayer de mettre en place un modèle prédictif de migration de ces polluants à l'échelle d'un bassin versant. Le projet a démarré en 2020 avec sept partenaires mais il n'en est qu'à son tout début et n'a pas encore livré de résultats concrets. C'est un travail très intéressant au sens où il combine plusieurs contaminants.
Monsieur Guiol a posé une question sur la sûreté de l'EPR et la sous-traitance. Il est tout à fait exact que la sûreté d'un réacteur comporte deux aspects. Le premier est la conception : il faut que le réacteur soit bien conçu, bien construit, etc. Le deuxième est l'exploitation : un réacteur très performant du point de vue de la conception mais exploité par des personnes qui n'ont pas la formation et les compétences requises peut être dangereux. La compétence est évidemment essentielle.
La question de la sous-traitance est extrêmement pertinente. Il faut savoir que 80 % des travaux de maintenance sur les gros composants sont sous-traités par EDF. Comment l'IRSN suit-il ce sujet ? Nous ne faisons pas d'inspection. L'IRSN est un organisme scientifique et technique, qui fait des évaluations pour les autorités, les ministères, les décideurs. Pourtant, ce sujet nous concerne complètement et nous nous sommes donc interrogés depuis un moment déjà. L'Institut avait constaté qu'EDF prenait des mesures pour maîtriser la dimension de sûreté de ces sous-traitances, mais il avait mis en évidence trois points qui restent d'actualité. Le premier est qu'EDF doit renforcer sa capacité à s'assurer que le sous-traitant pourra respecter toute cette dimension de sûreté. Le deuxième est qu'il faut renforcer la capacité des sous-traitants à faire face à des aléas. Un chantier de maintenance en arrêt de tranche d'une centrale nucléaire est un chantier complexe qui peut connaître de nombreux aléas. Ce n'est pas anormal, c'est la vie industrielle. Par contre, en cas d'aléa, il faut que le sous-traitant puisse continuer à faire le travail proprement. Le dernier point consiste à favoriser le partage du retour d'expérience entre le sous-traitant et EDF : le sous-traitant ne doit pas le garder pour lui dans la crainte de se voir adresser des reproches. In fine, l'idée est qu'il faut que la relation entre EDF et ses sous-traitants soit dans le registre du partenariat plus que dans celui de donneur d'ordre à exécutant.
Lors des expertises réalisées par l'Institut ces dernières années, il a été constaté qu'EDF évolue, comme il le dit lui-même d'ailleurs dans sa stratégie, vers plus de « faire par lui-même » et moins de « faire faire ». L'inspecteur général pour la sûreté nucléaire d'EDF, M. de Lastic, l'a écrit explicitement dans son rapport de 2020. En particulier, les équipes des unités logistiques de maintenance ont été renforcées pour se substituer à la sous-traitance. Ce sont les unités qui s'occupent notamment des groupes électrogènes diesel sur lesquels un certain nombre de non-conformités ont été détectées ces dernières années. Elles s'occupent aussi de la turbine, etc.
Je vous remercie pour vos réponses extrêmement détaillées. Pour prolonger la question sur la radioactivité en Polynésie, des essais nucléaires ont également été réalisés dans le Sahara algérien. Est-ce un dossier dans lequel l'IRSN joue aussi un rôle ?
Par ailleurs, 2021 marque le dixième anniversaire de l'accident de Fukushima. On sait qu'après Fukushima, des mesures ont été prises pour accroître la sûreté, par exemple avec les diesels d'ultime secours. Pouvez-vous faire un point sur la mise en œuvre de ces nouvelles précautions ?
En ce qui concerne le Sahara, l'IRSN a produit une note sur un épisode qui a eu lieu en février de cette année avec la remise en suspension de césium dans l'atmosphère. L'une des interrogations était le lien avec des retombées des essais français.
Le premier point qu'il est important de mentionner est que plusieurs pays – les États-Unis, l'Union soviétique, la Chine, le Royaume-Uni, la France – ont fait des essais aériens dans l'hémisphère nord. Il est évidemment impossible d'attribuer telle particule de césium à tel essai sachant que, ces essais ayant des conséquences à haute altitude, la concentration de césium dans l'atmosphère s'homogénéise. C'était différent pour l'accident de Tchernobyl où il s'est créé une contamination en taches de léopard parce que les rejets ont eu lieu à faible altitude, à la hauteur des cheminées ou un peu plus haut. Le césium issu des essais aériens est uniformément réparti. Il est évidemment d'origine artificielle mais il vient de l'ensemble des essais et n'est pas spécifiquement lié aux essais français.
Le deuxième point important est que la concentration habituelle est de l'ordre de 0,1 microbecquerel par mètre cube. En février, cette concentration a été multipliée par un facteur dix mais ce n'était pas la première fois. En 2004, un précédent épisode avait provoqué une multiplication par un facteur 30. L'accident de Fukushima correspondait à un facteur 100 et, pour l'accident de Tchernobyl, le facteur multiplicatif était de plus d'un million, ce qui relativise le sujet.
L'épisode récent est lié à une remise en suspension de sable saharien contaminé par des phénomènes météorologiques qui ont traversé la Méditerranée et l'ensemble de l'hémisphère nord. Au-delà du suivi de la contamination de l'atmosphère en France, l'IRSN n'a aucun rôle sur le sujet des essais sahariens.
Je rappelle que l'accident de Fukushima résulte d'un séisme combiné à un tsunami conduisant à la destruction des alimentations électriques et des sources froides des quatre réacteurs situés en bord de mer alors que trois étaient en fonctionnement et le dernier – le numéro 3 – à l'arrêt. L'IRSN a travaillé sur le sujet et défini la notion de « noyau dur ». L'idée est d'identifier un certain nombre de matériels, soit existants, soit à mettre en place, pour répondre à trois objectifs afin de faire face à des agressions de grande ampleur :
Très concrètement, l'IRSN a travaillé en trois phases. La première phase, dans les suites directes de l'accident, a débouché sur la mise en place de moyens mobiles, des pompes, des diesels de secours, etc. ainsi que de la force d'action rapide nucléaire (FARN). EDF a constitué une équipe déployable dans un délai de 24 heures sur tout site. La FARN comporte trois équipes, pré-positionnées sur trois sites, qui peuvent rejoindre tout site pour aider à gérer une crise grave.
Dans une deuxième phase ont été mis en place des diesels d'ultime secours et des centres de crise durcis. Dans une troisième phase, des moyens fixes seront développés dans le cadre de la prolongation des réacteurs au-delà de quarante ans.
Je pense que votre question vise à la fois les diesels d'ultime secours, qui sont tous en place aujourd'hui, et les centres de crise durcis. À ma connaissance, le seul centre de crise durci opérationnel est celui de Flamanville. Les autres seront déployés entre 2022 et 2026, la plupart d'entre eux en 2024, EDF ayant mis en place divers moyens pour renforcer sa gestion de crise.
N'avez-vous aucune inquiétude à ce stade du déploiement ? Ma question est simplement destinée à savoir quelle est votre appréciation du problème.
Inquiétude n'est pas le bon terme. Des départs de feu ont eu lieu sur les diesels installés sur les réacteurs de 1 300 mégawatts. EDF doit traiter cette question pour garantir la fiabilité de ce dispositif. Les autres modifications doivent être réalisées dans le cadre de la prolongation de l'exploitation des réacteurs au-delà de quarante ans.
En ce qui me concerne, j'ai eu mon content de réponses. Nous vous remercions encore une fois chaleureusement, madame la présidente, monsieur le directeur général, monsieur le directeur général adjoint, pour votre implication, pour l'exhaustivité et la précision de vos réponses. Ce rendez-vous renouvelé est très important pour la représentation nationale et nous vous adressons tous nos encouragements pour la suite de vos importantes missions.
Si vous le souhaitez, nous pouvons organiser une visite de l'Office dans nos installations quand vous le désirez.
Ce sera avec plaisir que nous répondrons à votre invitation. Nous reprendrons contact le moment venu.
La réunion est close à 13 h 05.