Intervention de David Gruson

Réunion du jeudi 21 février 2019 à 9h00
Office parlementaire d'évaluation des choix scientifiques et technologiques

David Gruson, membre du comité de direction de la chaire santé de l'institut d'études politiques de Paris, fondateur d'Ethik-IA :

Le rapport du Comité consultatif national d'éthique auquel vous faites référence fait suite à la mission que j'ai eu l'honneur de co-diriger avec Claude Kirchner, président du conseil d'éthique d'Inria. Comme l'ont montré de multiples travaux, dont l'ouvrage que vous avez, M. Villani, coordonné avec Bernard Nordlinger ici présent, l'IA se développe massivement dans le système de santé, avec un phénomène d'espace temps et de rapidité de déploiement qui doit amener à prendre des orientations en termes de régulation éthique, en essayant de soutenir l'innovation tout en maîtrisant les risques. C'est cette quadrature du cercle que le CCNE a tenté d'aborder dans le rapport rendu public en novembre 2018. Cette réflexion représente sans doute un point de bascule. Le Comité d'éthique structure dans ce document une position que je vais résumer très synthétiquement, autour d'une pyramide de risques à trois étages, du plus important au moins significatif.

Le CCNE considère que le risque majeur serait de ne pas s'ouvrir à l'IA, au numérique, au pilotage par les données. J'ai fait, en tant que directeur de CHU, l'expérience de ce que l'insuffisance du pilotage par les données génère comme situations de non qualité et de sous-efficience, lesquelles sont profondément non éthiques. Sans doute allez-vous, au fil de cette audition, entendre divers témoignages en ce sens. Il s'agit d'un sujet que j'ai abordé avec Gérard Raymond sur le champ du diabète ou encore avec Olivier Véran, que je salue, sur la question de l'insuffisance rénale chronique. Il n'est pas éthique, en résumé, de bloquer la diffusion de l'IA.

Le deuxième risque identifié tient au fait que la médecine algorithmique se diffuse très vite ailleurs et que le numérique rend nos systèmes de santé de plus en plus poreux entre eux. Si nous ajoutons des strates de sur-réglementation en France, ceci encouragera en pratique les professionnels et les patients à recourir à des instruments de médecine algorithmique ailleurs, dont on ne pourra pas garantir le principe éthique et notamment les modalités de recueil du consentement dans la collecte des données.

Une fois posés ces deux préalables fondamentaux, qui traduisent sans doute une bascule d'idée sur ce sujet, on peut aborder les risques éthiques intrinsèques à l'intelligence artificielle, autour d'une série de propositions pour la prochaine révision de la loi relative à la bioéthique. Nous avons d'ailleurs constaté avec satisfaction que certains de ces éléments avaient été relayés dans le rapport de la mission d'information sur la bioéthique rapportée par M. Jean-Louis Touraine et portés au Sénat par le président de sa commission des affaires sociales, M. Alain Milon.

La première proposition concerne un élargissement du devoir d'information du médecin au patient, afin que ce dernier soit informé de ce que la proposition thérapeutique qui lui est faite se fonde sur les résultats produits par un système d'intelligence artificielle.

La deuxième modification suggérée est celle d'une « garantie humaine » de l'intelligence artificielle : ceci renvoie à l'idée d'une supervision de l'IA non pas à chaque étape (ce qui en bloquerait la capacité d'innovation), mais dans une logique de supervision pratique. Nous avons par exemple, avec la Société française de télémédecine, proposé l'idée d'une télémédecine de garantie humaine : ceci est très intuitif et consiste, pour un médecin de première ligne auquel l'IA propose un diagnostic sur lequel il a un doute par rapport au cas clinique, à solliciter un deuxième avis humain, sous forme d'une téléexpertise sur la proposition algorithmique. Ce type de procédure entre tout à fait dans le droit actuel de la téléexpertise et dans le régime financier fixé pour ce domaine par la convention médicale de septembre dernier. Ces dispositifs de pilotage humain pourraient également consister en la mise en place de collèges de garantie humaine associant médecins, soignants, représentants des usagers, qui assureraient le suivi de l'évolution de l'algorithme au fil du temps et vérifieraient que ce dernier reste efficace médicalement et responsable éthiquement. On peut imaginer développer, autour de ce coeur de proposition, un écosystème de régulation positive, sous la forme, comme le proposait le Conseil de l'ordre des médecins, de soft law, de régulation souple, de self-compliance, d'outils de bonnes pratiques, le cas échéant sous le pilotage de la Haute autorité de santé.

Je considère, à titre personnel, qu'il conviendrait sans doute de compléter ces propositions, d'un point de vue pratique, par deux lignes de recommandations complémentaires. Sur le terrain du droit, le CCNE relevait dans son rapport le caractère très positif de la mise en place d'une plateforme sécurisée de données telle que le Health data hub. Il s'agit évidemment d'une avancée. Je dirais pour ma part que si l'on voulait compléter le dispositif pour permettre au hub d'atteindre sa pleine efficacité dans un contexte caractérisé par le fait que l'innovation se développe très vite ailleurs, se poserait la question pratique consistant à permettre un usage assez rapide des données déjà collectées. A partir du moment où le hub se met en place sous l'égide des pouvoirs publics et est entouré de principes juridiques et éthiques constitutifs, pourquoi ne pas prévoir, pour les données déjà collectées, un principe permettant, à condition que le traitement soit d'intérêt légitime, public, que s'applique le consentement présumé ? Ceci permettrait assurément un gain de temps dans le développement d'outils de médecine algorithmiques dans le cadre protecteur qui est le nôtre, avec le cas échéant une capacité d'opposition. Certains régimes de ce type existent dans le champ du traitement des données, mais aussi de la santé, pour des actes aussi graves que les prélèvements d'organes.

Ma deuxième proposition a à voir avec une éthique entendue au sens large, dans l'optique d'une régulation positive de l'accompagnement. Toutes ces évolutions ont évidemment un impact important pour les professionnels de santé. On entend par exemple régulièrement dire dans le débat public que la radiologie est une spécialité en voie de disparition du fait de l'IA. Les analyses que nous avons pu mobiliser, notamment dans le cadre d'un rapport rédigé pour l'Institut Montaigne, montrent en fait que le point d'impact ne porte pas à court terme sur les spécialités médicales et soignantes. Il faut travailler sur l'évolution de la formation médicale, réfléchir aux effectifs qui seront nécessaires. La Conférence des doyens des facultés de médecine a proposé d'insérer un module de formation des étudiants en médecine à l'IA dès la première année de 2019. Sans doute faut-il également regarder ailleurs : le sujet principal est selon moi celui des fonctions supports que sont l'administration, la gestion, le pilotage des fonctions logistiques et médico-techniques. Des scénarios de chiffrage ont été établis, qui montrent que les emplois automatisables dans le système de santé sur ces fonctions sont de l'ordre de 40 000 équivalents temps plein en fourchette basse et 80 000 en fourchette haute. Le potentiel d'automatisation est donc considérable et doit évidemment être mis en perspective avec les 1,2 million d'emplois du secteur. Ceci implique le déploiement, dans les meilleurs délais, d'un plan de gestion prévisionnelle des emplois et des compétences, afin d'essayer d'adapter ces profils aux besoins du système de santé de demain. Sans doute est-ce le point essentiel sur lequel l'effort doit porter en matière d'accompagnement du déploiement de l'IA en santé : ceci participe de principes de régulation éthique.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.