Intervention de Albert Benveniste

Réunion du jeudi 1er juillet 2021 à 9h30
Office parlementaire d'évaluation des choix scientifiques et technologiques

Albert Benveniste, membre de l'Académie des technologies :

Cet aspect a été bien identifié par les gens d'IBM et leur présentation était assez intéressante sur ce plan.

Sur l'aspect épidémiologique, les essais sur cohortes seront à mon avis un peu bousculés par ce qu'il s'est passé pendant la pandémie, tout simplement parce que, pour la première fois, malgré l'imperfection des données qui pourront en être tirées, il y aura des cohortes en vraie grandeur, comme il n'y en a jamais eu. Cela changera probablement la façon de voir le calage des modèles sur les données – ce qui est l'un des aspects de l'intelligence artificielle – qui reposera sur des cohortes de données bien plus grandes que précédemment. Je suis donc convaincu que, même en conservant le point de vue de l'épidémiologie classique et des modèles compartimentaux, il sera possible de faire une exploitation considérable des données résultant de la crise.

Par ailleurs, le volet intelligence artificielle du travail de modélisation existe depuis bien plus longtemps que les progrès de l'apprentissage profond, qui datent du début de la décennie qui vient de s'achever. Ces recherches ont été entreprises dans les années 1950 ou 1960 et sont donc vraiment intégrées à l'épidémiologie. Elles consistent à élaborer des modèles dits semi-physiques, qui ne sont pas la traduction précise d'un phénomène physique particulier mais qui en sont une traduction approchée, un peu globalisée. Ils font apparaître des paramètres dépourvus de signification physique exacte qui permettrait d'en déterminer la valeur pour des raisons fondées physiquement. C'est ainsi que l'aspect « statistique et apprentissage » intervient et les paramètres correspondants sont déterminés grâce aux données récoltées.

Il faut bien comprendre que, lorsque l'on utilise ces techniques sur des phénomènes dont un modèle idéal serait différent de celui utilisé pour faire la prévision épidémiologique, on se débrouille pour tordre les modèles épidémiologiques afin que, localement dans l'espace et dans le temps, ils se comportent comme s'ils étaient exacts. C'est un autre apport de l'intelligence artificielle à ce type de modélisation mais un tel calage ne vaut que localement, dans le temps et dans l'espace. Il ne permet pas de faire des prévisions lointaines. Il ne permet pas d'intégrer ce que vous avez appelé les vrais évènements les plus importants. Ceux-ci n'ont pas été pris en compte dans le modèle lorsque les paramètres ont été calés.

Pour améliorer la modélisation – c'est un principe général de modélisation qui n'est pas spécifique à l'épidémiologie –, il faut être le plus proche possible des phénomènes physiques fondamentaux sous-jacents. Plus les paramètres du modèle ont une pertinence proche de la physique, même lorsque c'est un modèle complètement fondé physiquement, plus il sera facile soit de les « pifométrer », soit de les caler sur des données. Le travail habituel sur les cohortes sera facilité si la structure et la nature des modèles est proche des vrais phénomènes sous-jacents.

C'est pour cette raison qu'il est souhaitable de promouvoir la prise en compte du complément relevant de la psychologie de foule. Dans les travaux de modélisation les plus récents, un paramètre est le coût perçu par un individu lorsqu'il doit se confiner. C'est un phénomène que nous comprenons suffisamment bien pour parvenir à régler qualitativement ou empiriquement ce paramètre. Nous pouvons le caler sur des données mais de manière contrôlée par rapport à la compréhension du phénomène. Il s'agit d'un paramètre qui est proche de la réalité et qui rend en quelque sorte le modèle plus malin, plus proche des vrais phénomènes. Plus on s'approche de ce qui serait la bonne modélisation, plus l'apport de l'intelligence artificielle, qui restera nécessaire, est facilité.

En conclusion, les cohortes resteront utiles. Je pense que la disponibilité de la grande cohorte Covid révolutionnera l'épidémiologie et qu'il est nécessaire d'inclure les compléments à la propagation du virus pour avoir des paramètres pertinents que nous saurons mieux caler par le biais de cohortes.

Le président Cédric Villani a posé une question sur les points essentiels du rapport en matière d'organisation des autorités publiques. Le premier point est de cesser de croire qu'il faut après chaque crise prévoir un plan noir, un plan rouge ou un plan vert pour résoudre la crise suivante. Une politique fondée sur des plans de crise sert à régler la crise d'avant mais jamais la crise d'après. Nous pouvons dire clairement qu'il est inutile de s'époumoner à fabriquer des plans et des réseaux de gens destinés à les mettre en œuvre lorsqu'une nouvelle crise survient. Ceci nous paraît assez vain et, comme je l'ai dit, nous ne nous associons pas à la critique faite à la politique des masques parce que, d'une certaine manière, le problème était un peu inéluctable. C'est ce qui survient chaque fois qu'est mis en place un système voué à l'obsolescence. C'est l'essence des choses : des outils qui ne servent qu'en temps de crise sont des outils qui, essentiellement, ne marcheront pas.

Il est bien plus pertinent de convaincre les organismes gouvernementaux de déplacer leurs pratiques vers ce qui est de plus en plus pratiqué dans l'industrie des systèmes compliqués et des systèmes critiques, où doivent être prises des décisions difficiles, des décisions qui engagent des facteurs humains importants. Il s'agit d'exploiter des attitudes et des façons de faire utilisées en permanence, pour tout ce qu'il faut concevoir, depuis les problèmes de routine jusqu'aux situations de crise.

Il faut avoir des plateformes dans lesquelles cet aspect « attitude générale », « état d'esprit » intervient pour faire face au risque, en cas de crise, lorsqu'on a besoin de faire intervenir ensemble des gens qui ne se sont jamais parlé auparavant. C'est la situation qui s'est présentée lors de la crise sanitaire et il aurait été utile de savoir très bien faire coopérer les gens qui en temps normal n'ont pas vocation à coopérer. La disponibilité et l'usage de plateformes du type que nous avons mentionné et la pratique qui en est faite dans l'industrie facilitent le développement de ce genre d'attitudes.

Le fait de s'habituer à tisser des liens pour gérer des compromis est également important. Les politiques gèrent de façon habituelle de nombreux compromis. Si vous n'êtes pas outillés pour élaborer ces compromis en grande quantité, je pense que ce n'est pas très facile. Tout ce qui peut aider à réaliser des modélisations globales permettant de faire à l'avance ces jeux de scénarios me semble très important.

Vous avez évoqué les problèmes d'éthique. Ils existent pour les données et, dans une politique de ce type qui mobilise l'intelligence artificielle, ils existent aussi derrière les modèles. Dans l'intelligence artificielle, on associe des problèmes d'éthique à des questions d'algorithmes. Les algorithmes peuvent en effet être ou ne pas être éthiques. Ce sont de vraies questions et, à mes yeux, une réponse a déjà été adoptée pour les données dans le cadre de la politique européenne sur la plateforme GaiaX. Il faudrait s'en inspirer pour les travaux de modélisation et d'algorithmique.

Les modèles doivent être connus, être publics, ne pas être cachés. Il est important qu'ils soient décrits et spécifiés dans un langage concis et compréhensible, d'abord pour des spécialistes et ensuite, de manière plus dégradée, pour les non spécialistes et le grand public.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.