Intervention de Cédric Villani

Réunion du mercredi 7 novembre 2018 à 12h40
Mission d'information sur la révision de la loi relative à la bioéthique

Photo issue du site de l'Assemblée nationale ou de WikipediaCédric Villani :

Merci, mes chers collègues. Avant de commencer et puisque notre rapporteur est attaché au territoire lyonnais, je mentionnerai que sur les questions d'articulation entre mathématiques et médecine, la région de Lyon a été pionnière, en particulier avec mon ancien collègue de l'École normale supérieure de Lyon Emmanuel Grenier. Il m'est arrivé, il y a quelques années, d'effectuer dans cette ville, dans un contexte hospitalier, de grands exposés sur les apports de l'intelligence artificielle à la médecine. Je dois dire aussi que lorsque ces travaux ont démarré, ils ont été assez peu pris au sérieux par la communauté mathématique. Nous étions alors vers la fin de la période pendant laquelle l'intelligence artificielle avait mauvaise presse, si bien que l'on ne misait guère dessus.

Je commencerai par prendre quelques minutes pour évoquer le contexte de l'intelligence artificielle et les questions d'efficacité sous-jacentes. Je dirai ensuite quelques mots du rapport, avant d'insister sur les enjeux éthiques, en particulier dans le cadre du projet de loi à venir. Je m'attacherai à présenter un exposé succinct, afin de laisser autant de temps que possible à la discussion.

Le sujet de l'intelligence artificielle n'est pas neuf. Il est né dans les années 1950 et s'est développé, pendant très longtemps, avec des à-coups. Ces travaux avaient pour objet la compréhension des processus de l'intelligence humaine et leur reproduction in silico. C'est d'ailleurs de là que provient la dénomination, si mal choisie, d'« intelligence artificielle ». Passés les grands espoirs initiaux, le programme a été largement désavoué dans les faits, si bien que jusque dans les années 1990, le sujet était considéré comme peu effectif, gardant une identité éthérée. Le voir ensuite progresser si vite a constitué, dans les années 2000 et plus encore dans les années 2010, une réelle surprise. Personne, ni dans la sphère des décideurs ni dans celle des experts, n'avait en effet anticipé ce mouvement.

Quelles sont les raisons pour lesquelles l'intelligence artificielle est devenue si omniprésente au cours des dernières années, à la fois dans le discours et les techniques ? Cela tient d'une part au fait que les techniques statistiques ont gagné en ampleur, en raison de la constitution de gigantesques bases de données, d'autre part à l'accélération de la puissance de calcul. D'autres facteurs entrent certainement également en jeu, que les chercheurs et les spécialistes en algorithmique continuent à essayer de comprendre. Ainsi, nous ne savons pas précisément pourquoi les algorithmes que nous utilisons actuellement sont si efficaces. Il ne faut surtout pas y voir une sorte d'émergence de conscience ou d'intelligence : cela vient simplement d'une sous-estimation de la puissance des techniques statistiques dans l'analyse de données issues du monde réel. Cela traduit aussi le fait que nous manquons encore d'explications sur la façon dont les données du monde réel s'organisent et sur la raison qui fait que, dans beaucoup de situations concrètes, des phénomènes qui semblent dépendre d'un très grand nombre de paramètres se rapportent finalement à un petit nombre de paramètres efficaces.

Au-delà de cette montée en puissance des méthodes statistiques, un coup de théâtre s'est produit au plan technique, dans les années 2010, avec la redécouverte des techniques dites de « réseaux de neurones », ou d'« apprentissage profond ». Les réseaux de neurones sont connus depuis longtemps et les algorithmes qui font fureur aujourd'hui datent des années 1980. Or, il y a moins d'une décennie encore, les experts les plus reconnus en informatique les considéraient comme une impasse et estimaient qu'il était vain de poursuivre des recherches dans ce domaine. C'était sans compter sur la ténacité de la petite équipe de Yann LeCun, Yoshua Bengio et Geoffrey Hinton, qui a démontré que ces réseaux de neurones pouvaient être extrêmement efficaces lorsqu'ils étaient bien manipulés, même si les plus grands experts du domaine ne s'expliquent toujours pas clairement les raisons profondes de cette efficacité.

Ce domaine s'est donc développé d'une façon extraordinairement pragmatique, avec assez peu de théorie, et de manière extrêmement statistique, c'est-à-dire en se fondant sur des exemples et de grandes bases de données. Là où, vingt ans plus tôt, on aurait pensé que la clé de l'intelligence artificielle résidait dans la compréhension subtile de mécanismes logiques, on se rend compte aujourd'hui que les enjeux en termes d'efficacité se trouvent surtout dans de grandes bases de données et une énorme puissance de calcul.

Il faut ajouter aux données et aux moyens de calcul un troisième ingrédient autour duquel se joue une compétition nationale et mondiale : il s'agit des cerveaux humains capables de programmer et de mener des projets dans le domaine de l'intelligence artificielle.

Ces trois éléments donnent lieu à une compétition internationale phénoménale, qui se tend d'année en année et dans laquelle le leader émergent est la Chine, qui investit des montants sans commune mesure avec ceux que les autres pays y consacrent. J'en veux pour preuve le fait que, tout récemment, la présidente de la région Ile-de-France a annoncé un grand concours d'intelligence artificielle, financé à hauteur de 20 millions d'euros, visant à faire émerger de nouvelles solutions ; à peu près au même moment, une grande ville chinoise a annoncé un investissement de 15 milliards d'euros pour les années à venir. Tout est à l'avenant. Alors que l'on pouvait estimer, il y a vingt ans, que l'élément essentiel n'était pas l'argent mais la compréhension subtile des phénomènes, le débat s'est déplacé aujourd'hui et l'argent achète tout, qu'il s'agisse des moyens de calcul ou des cerveaux. La question des données est de nature différente ; mais la constitution de grandes bases de données n'est pas non plus un problème en Chine.

Voici donc, brièvement présenté, le contexte technologique et géopolitique qu'il convient d'avoir présent à l'esprit. Nous pourrons y revenir si vous le souhaitez.

Parlons maintenant de l'application de l'intelligence artificielle à la médecine. Tout est envisageable, avec plus ou moins de succès : tout est affaire de pratique. Certaines tâches se sont avérées traitables par l'algorithmique sophistiquée de façon beaucoup plus efficace qu'on ne l'imaginait, contrairement à d'autres. De façon générale, les intelligences artificielles sont très efficaces pour reconnaître des situations, des motifs, effectuer des diagnostics, c'est-à-dire, globalement, réaliser des analyses à partir de cas précis. En matière médicale, cela se traduit notamment par la réalisation de diagnostics automatiques. Citons le cas emblématique, et notoirement difficile à traiter par les humains, du diagnostic du cancer du sein : les algorithmes de reconnaissance automatique sont actuellement à peu près au même niveau que les humains. Lorsque l'on combine les deux aspects, algorithmique et humain, on obtient un taux de succès très proche de 100 %.

Les algorithmes permettent également la reconnaissance automatique de certaines configurations, en particulier dans l'analyse génomique, la traduction automatique de génotypes en phénotypes – problème resté notoirement insoluble pour les cerveaux humains pour l'instant –, toujours en se basant sur l'exemple, sur des situations déjà rencontrées et suffisamment documentées.

L'intelligence artificielle permet enfin, de façon plus générale, l'optimisation de processus à partir de divers paramètres et contraintes.

Il existe ainsi des applications importantes de l'intelligence artificielle en médecine et plus globalement dans l'interaction entre biologie et algorithmique.

Tout cela peut sembler a priori très positif. Nous disposons déjà d'exemples dans lesquels un diagnostic automatisé a permis de sauver la vie de tel ou tel patient dont la pathologie avait été sous-estimée par un médecin.

Pour autant, se posent en regard un certain nombre de problèmes éthiques. Ainsi, le rapport sur l'intelligence artificielle que j'ai coordonné, s'il insiste sur la santé comme étant l'un des secteurs dans lesquels il faut investir de façon importante, pointe aussi de potentiels risques et dérives, qui sont aujourd'hui de mieux en mieux documentés.

De façon générale, les risques de l'intelligence artificielle peuvent tout d'abord venir de l'usage de l'algorithmique, c'est-à-dire d'un processus défectueux ou mal utilisé. Cela peut être le fruit d'un algorithme insuffisamment testé ou validé, ou d'une utilisation sans précaution, par une personne ne maîtrisant pas le processus. Cela peut encore provenir d'une dilution de responsabilité dans une chaîne humaine, conduisant à ce qu'un comportement dangereux ne soit pas identifié. Le dysfonctionnement peut se situer à l'interface entre l'humain et le système automatique, avec une perte de savoir-faire humain. Il peut enfin relever d'une mauvaise interprétation.

Une deuxième catégorie de problèmes éthiques est liée au rapport avec les données et les informations. La collecte de grands jeux de données implique de déployer beaucoup d'énergie. Un rapport, coordonné par Mme Combes et rendu récemment à la ministre de la santé, préfigure la mise en place d'un grand système national public de données de santé, agglomérant des données administratives et des données issues des hôpitaux et de différents registres. Ce travail met en lumière les difficultés que ces données vont susciter : problèmes de format, d'autorisation, d'ingénierie administrative des bases de données. Qui a le contrôle ? Qui donne l'autorisation ? Qui permet que telle donnée soit collectée et pas telle autre ? Qui va vérifier que les bases de données sont bien calibrées ? Les questions sont nombreuses.

Prenons un exemple parmi beaucoup d'autres, qui s'est présenté à plusieurs reprises : aujourd'hui, lorsqu'un geste chirurgical est effectué et qu'il faut inscrire les données correspondantes dans le système national des données de santé (SNDS), il faut savoir que le geste indiqué dans les bases de données administratives n'est pas celui qui a effectivement eu lieu : c'est le geste provisoire à partir duquel les remboursements sont effectués. Or, entre le moment où un nouveau geste est introduit dans la pratique médicale et le moment où tous les acteurs se sont entendus sur une base de remboursement, il peut s'écouler des années, pendant lesquelles le vrai geste sera consigné dans les registres hospitaliers par le chirurgien, mais ne figurera pas dans les bases de données de l'État. Tant que la seule finalité était un remboursement du patient, cela était acceptable ; mais dans la mesure où il va s'agir d'en tirer des informations statistiques pour savoir si telle ou telle méthode est efficace ou pour connaître le taux de rechute, alors ces données risquent d'induire en erreur, en particulier au moment le plus crucial qui est justement celui de l'introduction d'un nouveau geste chirurgical. Il existe donc des difficultés techniques réelles pour l'exploitation des données en vue d'une plus grande efficacité.

Au-delà, il importe aussi de considérer les difficultés éthiques ou légales. Quand a-t-on le droit de placer telle ou telle donnée dans un fichier ? Qui peut y avoir accès ? Qui va indiquer au patient les informations le concernant susceptibles d'être déduites de ces données ? Des organismes d'assurance y auront-ils accès ? Va-t-on pouvoir mettre en oeuvre des algorithmes prédictifs à partir de telle ou telle donnée, par exemple génétique ?

Lors de l'élaboration du rapport sur l'intelligence artificielle, et plus encore dans les discussions menées à l'OPECST sur la bioéthique, ces questions d'information et de prédiction ont donné lieu aux débats les plus complexes. Cela se reflète dans les avis figurant dans le rapport de l'OPECST. Quelle attitude avoir, par exemple, face à la pratique consistant pour un individu à faire séquencer son génome à des fins non thérapeutiques, chose pour l'instant interdite par la loi française, mais néanmoins assez facile à réaliser en passant par un opérateur étranger ? Certains prônent la légalisation par pragmatisme, tandis que d'autres pensent qu'il faut maintenir l'interdiction, ne serait-ce que par cohérence avec un ensemble de règles susceptibles d'être affectées par un tel changement, en rapport notamment avec le droit de la filiation ou les indemnisations. Un autre exemple est celui du cloisonnement entre les données de santé et les mutuelles, débat sur lequel le Sénat et l'Assemblée nationale ne partagent pas la même position ; ce clivage se retrouve d'ailleurs dans l'avis rendu par l'OPECST, puisque le rapporteur de l'Assemblée nationale et la rapporteure du Sénat n'ont pas réussi à se mettre d'accord sur la question. Bref, nous sommes dans une situation de transition, d'évolution, dans laquelle un certain nombre de pratiques et de recommandations ressemblent à une cote mal taillée, entre différents idéaux et volontés. Ce n'est pas grave en soi dans le cadre d'une loi de bioéthique, toujours amenée à insister sur des questionnements, parfois à ne pas trancher de façon claire et à laisser la place à la réflexion éthique des personnes en situation de responsabilité, dont les médecins.

Si je me résume, se posent une question d'efficacité, mais aussi des difficultés techniques et des problèmes beaucoup plus importants liés à l'éthique et en particulier à l'information : qui a le droit de savoir ? Faut-il informer ou non ?

Pour terminer, je souhaite soulever une question liée, dans ce contexte, au rôle du patient. Toutes sortes de questionnements nouveaux se manifestent en ce domaine. Le patient a-t-il le droit de s'informer lui-même sur des questions que l'institution lui dénie pour l'instant ? Que signifie pour le patient le fait de donner son consentement éclairé, base sur laquelle repose actuellement le recueil de données personnelles ? Quel sera le rapport du patient aux possibilités d'information qui seront ouvertes ? Je conclurai en faisant référence aux propos d'un collègue de l'Académie de médecine, entendu dans le cadre d'un groupe de travail conjoint avec l'Académie des sciences : il nous invitait à ne pas nous tromper d'ennemi, car le vrai problème qui guette les gens avec le développement de l'algorithmique dans la santé est le syndrome du patient en proie à une multitude de hantises et de craintes sur ce qui pourrait lui arriver, hantises et craintes qui lui gâcheraient finalement beaucoup plus l'existence que les maladies elles-mêmes.

Je me tiens, chers collègues, à votre disposition pour revenir sur n'importe lequel de ces éléments ou sur tout autre point en rapport avec l'intelligence artificielle et l'évolution de la santé qui vous semblera important.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.