Intervention de Emmanuel Bacry

Réunion du jeudi 21 février 2019 à 9h00
Office parlementaire d'évaluation des choix scientifiques et technologiques

Emmanuel Bacry, directeur de recherche au CNRS, université Paris Dauphine, professeur et responsable de l'initiative Data Science, École polytechnique :

Je vais vous parler brièvement de ce partenariat, qui a commencé voici quatre ans entre la CNAM et l'École polytechnique et dont le but est de tester les technologies big data ou d'intelligence artificielle, c'est-à-dire les algorithmes, sur les données du SNIIRAM.

Lorsque cette initiative a été lancée, le SNDS n'existait pas, mais il faut savoir que les données du SNIIRAM correspondent à peu de choses près à celles du SNDS. Notre partenariat ne s'inscrit donc pas dans le cadre du SNDS. Nous intervenons dans une bulle sécurisée, totalement coupée du monde extérieur, avec accès à cette pépite assez unique qu'est le SNIIRAM, l'une des plus grosses bases de données médico-administratives au monde, que nombre de pays nous envient.

Le SNDS représente à mon avis un grand progrès, puisqu'il a énormément facilité l'accès aux données. On peut ainsi désormais obtenir en quatre mois une réponse sur l'acceptation ou le refus d'un accès aux données pour un projet particulier. De nombreux projets passionnants, avec un très fort impact, existent grâce au SNDS.

Il convient toutefois de préciser très clairement que tout ce qui relève des algorithmes modernes d'intelligence artificielle ne peut pas tourner sur l'infrastructure telle qu'elle existe aujourd'hui dans le SNDS. Si de nombreuses utilisations sont rendues possibles par cette infrastructure, d'autres en revanche, pourtant extrêmement importantes, ne sont pas accessibles. Il s'agit là de la première difficulté à laquelle nous nous sommes trouvés confrontés dans ce partenariat, qui nous a conduits à envisager de mettre en place les premiers éléments d'une restructuration d'un pipeline big data sur les données du SNIIRAM ou du SNDS. Ceci représente un très gros travail. Nous avons ainsi mis deux ans, avec en vitesse de croisière près de dix personnes à temps plein (des chercheurs, des experts en données et cinq développeurs) pour poser les premières briques de cette infrastructure et commencer à pouvoir travailler sur des algorithmes en IA. Ce travail a consisté en une refonte de l'infrastructure machine, de la base de données elle-même et de l'accès à cette base, avec des bibliothèques permettant d'accéder de façon efficace à la base, pour construire des données susceptibles d'être fournies à des algorithmes d'intelligence artificielle, afin de disposer d'outils accessibles d'intelligence artificielle moderne, permettant de faire tourner ces algorithmes sur cette base.

Nous continuons à oeuvrer à l'amélioration de ces premiers éléments, mais avons également réellement commencé à faire de l'intelligence artificielle. Nous avons par exemple travaillé sur des problèmes de pharmacovigilance. Nous nous sommes notamment demandé si nous serions capables de concevoir un algorithme capable d'identifier automatiquement, ou en tout cas avec le moins d'intervention humaine possible, des médicaments qui sont sur le marché et présentent potentiellement des effets néfastes secondaires. Nous avons travaillé sur ce type d'algorithme et rencontré un premier succès fin 2017, avec la mise au point d'une première version. Il était évidemment hors de question de le tester sur un cas réel. Pour autant, il nous fallait apporter la preuve que le système fonctionnait. Nous avons donc ré-identifié, avec des méthodes totalement différentes de celles employées habituellement, un médicament parmi un groupe de médicaments retirés du marché en 2011 pour cause d'effets secondaires, en l'espèce de risque de cancer de vessie aggravé.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.