Intervention de Jean-Gabriel Ganascia

Réunion du mercredi 7 novembre 2018 à 8h50
Mission d'information sur la révision de la loi relative à la bioéthique

Jean-Gabriel Ganascia, professeur à l'université Pierre-et-Marie-Curie, chercheur en intelligence artificielle, président du comité d'éthique du Centre national de la recherche scientifique (CNRS) :

Je vous remercie de votre invitation. Je vais vous présenter un exposé sur les enjeux éthiques émergents liés au développement de l'intelligence artificielle et de ses applications au domaine médical. Comme vous l'avez souligné, l'intelligence artificielle occupe aujourd'hui une part de plus en plus importante dans l'activité médicale.

Je diviserai mon propos en deux parties, la première visant à rappeler brièvement le spectre des applications de l'intelligence artificielle au secteur de la santé, la seconde envisageant les questions éthiques suscitées par ces applications.

Les applications de l'intelligence artificielle au secteur de la santé sont relativement nombreuses et ne se limitent pas à l'utilisation de l'apprentissage machine sur de grandes masses de données, techniques qui, bien que très populaires actuellement, masquent l'ampleur des applications de l'intelligence artificielle au domaine de la santé.

Je vais donc vous présenter toute une série d'applications, que je vais détailler brièvement, sans entrer toutefois dans des considérations trop techniques. Je pourrai bien évidemment répondre par la suite à vos questions concernant ces différentes applications.

L'aspect le plus évident, qui s'inscrit dans la continuité de dispositifs existant antérieurement, concerne les éléments en lien avec le stockage des informations et des données, dans le cadre de systèmes d'information présents dans diverses organisations, dont les hôpitaux, et susceptibles de se généraliser à d'autres institutions de santé. Cela concerne plus largement tout ce qui a trait à la recherche d'informations. Il y a sept ans, un programme réalisé par la société IBM l'avait emporté sur les meilleurs candidats du jeu télévisé américain Jeopardy. Ce dispositif, dénommé Watson, est un système de recherche d'informations, considérablement développé depuis, avec des applications dans différents secteurs, notamment bancaires et médicaux, ce qui soulève de nombreuses questions. Les informations traitées peuvent par exemple concerner des articles médicaux, pour aider les médecins à se tenir au courant des derniers résultats, ou les évolutions de la législation, de plus en plus complexe.

Le second élément en lien avec le stockage concerne les banques de données, qui jouent un rôle de plus en plus important, avec des aspects éthiques majeurs. Effectuer de l'apprentissage sur de grandes masses de données suppose en effet que les informations nécessaires soient stockées quelque part : il peut s'agir de banques de données de dossiers de patients, mais aussi de protéines ou autres types de molécules.

Après le stockage, le deuxième grand volet renvoie aux systèmes d'aide au diagnostic. Nous disposions par exemple, dans les années 1980, de ce que l'on qualifiait alors de « systèmes à base de connaissances », ou « systèmes experts ». La difficulté tenait en partie au fait qu'il fallait, pour que ces systèmes puissent fonctionner, construire les connaissances nécessaires, par un dialogue avec les experts. Aujourd'hui, se développe l'idée que ces connaissances pourraient se construire automatiquement, par apprentissage machine. Cela recouvre de nombreuses applications possibles, partant par exemple d'images réalisées dans le domaine de la radiologie ou de la dermatologie. L'an dernier, un article montrait comment, en partant de photographies de grains de beauté prises avec des téléphones portables, le système pouvait effectuer des diagnostics de mélanomes plus fiables que ceux de 21 dermatologues. J'y reviendrai, car sont liés à ces systèmes diagnostics des enjeux éthiques qui me semblent importants.

Le troisième grand volet est celui de la robotique chirurgicale. Cela concerne l'ensemble des dispositifs qui vont aider le chirurgien à procéder à des interventions. L'expression « robotique chirurgicale » est d'ailleurs trompeuse, car elle laisse supposer l'intervention de robots. Or il ne s'agit pas de robots au sens classique, car ces systèmes ne disposent d'aucune autonomie : ils permettent seulement de réaliser des téléopérations, c'est-à-dire des actions à distance, offrant au chirurgien la possibilité d'une position beaucoup plus confortable que celle qui serait la sienne sur le patient lui-même.

Il convient également de mentionner ici la question des prothèses, qui font appel à de l'intelligence artificielle : on peut penser aux organes artificiels, aux membres bioniques directement connectés sur les nerfs, qui commandent des actionneurs grâce à de l'intelligence artificielle. Il s'agit bel et bien de robotique. Les exosquelettes entrent aussi, d'une certaine manière, dans ce champ.

Un type de prothèse particulier me semble par ailleurs soulever des questions éthiques sur lesquelles nous reviendrons : il s'agit de tout ce qui relève des implants, notamment des implants neuronaux et neurocognitifs, et de la stimulation cérébrale transcrânienne.

Certains systèmes concernant la surveillance des patients font également appel à de l'intelligence artificielle, avec la possibilité d'utilisation de capteurs permettant un suivi en permanence, à l'hôpital ou à domicile. Ainsi, un bracelet électronique fixé au bras d'une personne atteinte d'une maladie d'Alzheimer à un stade débutant pourra lui permettre de rester en situation d'autonomie beaucoup plus longtemps, ce qui sera positif pour elle. Vous imaginez toutefois les questions éthiques que cela peut soulever par ailleurs.

Il convient également de mentionner, dans cette énumération et en lien avec la surveillance des patients, la question des objets connectés. Beaucoup de personnes vivent aujourd'hui avec des objets qui enregistrent en continu leur activité ; on pense notamment aux stimulateurs cardiaques, dont des centaines de milliers de personnes sont équipées en France. Il peut aussi s'agir d'objets qui, à domicile, peuvent être connectés. Il existe par exemple des respirateurs artificiels pour les patients souffrant de syndrome d'apnée du sommeil ; or, pour des raisons que l'on peut comprendre, les assurances sociales souhaitent savoir qui utilise effectivement ces respirateurs, qui ont un coût non négligeable. Cela nécessite d'enregistrer ce que font les patients la nuit, ce qui constitue une intrusion considérable dans leur vie privée.

Lié à ces objets connectés, citons également le crowdsourcing : ce terme, qui n'a pas de traduction simple en français, est un néologisme américain créé à partir des termes outsourcing et crowd, signifiant respectivement « externalisation » et « foule » : il s'agit donc de faire travailler une quantité considérable de gens à distance. Cela existe aujourd'hui sur Internet, avec par exemple Amazon Mechanical Turk (AMT), plateforme web permettant de faire travailler des gens à distance, pour des salaires assez faibles. Cela peut avoir des aspects très positifs, avec les sciences participatives et le fait de demander à toute la population de contribuer à l'activité scientifique par l'observation d'étoiles ou d'espèces animales. Dans le domaine médical, cela peut se traduire par le fait que des patients disposent sur eux de capteurs qui, de façon active ou passive, vont transmettre de l'information sur leurs activités. Vous imaginez, bien entendu, toutes les questions que cela peut poser. Ces aspects liés à l'acquisition de données sont vraiment un point central, en lien avec les techniques d'apprentissage permettant ensuite d'exploiter ces données.

Le dernier élément concerne les sources d'information parallèles. Il existe en effet sur le web énormément de sites d'informations médicales, qui ne sont pas nécessairement vérifiées par des autorités médicales. Cela place parfois les médecins dans des situations délicates.

Je vais à présent, à partir de ce large spectre d'activités, envisager les questions éthiques qu'elles soulèvent.

Les questions les plus classiques dans le domaine médical concernent la protection de l'intimité, de la vie privée. Les données concernées sont en effet extrêmement personnelles, puisqu'elles portent sur la santé, les médicaments que l'on prend, le rythme de vie de chacun. Jusqu'à quel point faut-il protéger la vie privée ? Peut-on véritablement anonymiser les données, c'est-à-dire en bénéficier tout en rompant le lien avec la personne qui en est à l'origine ? Il s'agit là de questions ouvertes et délicates, sur lesquelles portent de nombreuses recherches. Il faut savoir qu'aucune méthode ne permet d'anonymiser des données de façon absolue : en effet, même en supprimant le nom, il est possible, par croisement, de retrouver la source des informations.

La question de la vie privée doit toujours être mise en balance avec les bénéfices que l'on peut tirer de ces données, d'une part pour la science médicale, dans la mesure où les données de patients vont permettre de faire de l'induction pour trouver des causes et des corrélations entre des facteurs et des maladies, d'autre part pour l'individu lui-même, car le fait de donner certains éléments personnels, par exemple sur des contre-indications, sera gage pour lui d'une plus grande sécurité lors de la prescription de traitements.

De grandes quantités d'informations sont ainsi appelées à être stockées et pourront, si elles sont mal utilisées, se retourner contre les patients. Les assurances pourraient-elles par exemple avoir accès à ces données ? Vous percevez bien l'ampleur des problèmes que cela soulève.

La deuxième question éthique renvoie aux prothèses, qui sont extrêmement utiles pour soigner, pour réparer des déficiences, mais qui pourraient aussi être utilisées pour augmenter les capacités humaines. La frontière entre la réparation et l'augmentation est difficile à définir. Sans doute vous souvenez-vous d'Oscar Pistorius, cet athlète qui a défrayé la chronique parce qu'il avait, à la place des pieds, des lames de métal qui lui permettaient de courir très vite. Mais peut-être ignorez-vous le cas de Jennifer Bradshaw, Australienne souffrant de la même affection qu'Oscar Pistorius et dont une jambe avait été remplacée par une lame ; comme elle rêvait de courir très vite, elle a demandé à son médecin de lui couper l'autre jambe. Cela vous donne une idée des questions qui vont se poser.

Toujours dans le domaine des prothèses, je souhaiterais revenir sur le sujet des implants, en particulier des implants neuronaux, neurocognitifs, avec toutes les applications qui peuvent en être faites aujourd'hui et tous les risques de manipulation psychique liés à leur utilisation. Je crois d'ailleurs que le rapport du Comité consultatif national d'éthique pour les sciences de la vie et de la santé (CCNE) sur la révision de la loi de bioéthique comporte un chapitre entier consacré à cette question. Il s'agit d'un aspect extrêmement important. Je viens par exemple de lire un article publié par une équipe de l'université d'Oxford, qui explique que l'on va pouvoir implanter dans le cerveau des dispositifs électroniques permettant d'augmenter nos capacités intellectuelles. Si cela devait se réaliser, les conséquences en seraient certainement tout à fait catastrophiques, car il serait alors possible de manipuler des individus et des foules en plaçant dans leur cerveau ce que l'on voudrait. Je pense toutefois que, d'un point de vue technique, nous en sommes fort heureusement encore très loin.

J'ai évoqué dans la première partie de mon exposé les éléments concernant le diagnostic : cela soulève bien évidemment la question de la responsabilité dans la prise de décision. Peut-être avez-vous lu le livre Homo deus, ouvrage grand public à succès de l'auteur israélien Yuval Noah Harari, dans lequel il explique que nous allons avoir, d'ici quelques années, des dispositifs automatiques capables d'anticiper très rapidement nos réactions et qui permettront, dans le domaine médical, un diagnostic plus fiable que celui effectué par un médecin. Les assurances pourront alors tout à fait indiquer aux médecins qui prendraient des décisions autres que celles suggérées par le système automatique qu'ils encourraient alors un risque engageant leur responsabilité. Le danger est donc que les machines prennent des décisions à la place des hommes. Il s'agit d'une question centrale. Je pense qu'il faut s'opposer à cette évolution, pour de multiples raisons. Si le diagnostic du mélanome effectué automatiquement peut par exemple être plus fiable que celui fait par un médecin, la question de la prise en charge ultérieure du patient demeure bien évidemment de la responsabilité des médecins. Sans doute convient-il de prendre des précautions dans ce domaine.

Je souhaiterais aborder à présent la question de l'apprentissage machine : je crois que cette notion pose un certain nombre de questions d'ordre épistémologique, sur les conditions d'application des techniques. Cet apprentissage fonctionne essentiellement par induction, c'est-à-dire par un raisonnement logique allant du particulier au général. Il existe un axiome général de l'induction, l'axiome d'uniformité, identifié par les logiciens, dont John Stuart Mill, depuis plusieurs centaines d'années : pour que l'induction soit légitime, il faut que les exemples d'apprentissage à partir desquels elle est effectuée soient de bons représentants des situations d'application. Il faut bien évidemment s'assurer que ce qui est induit correspond vraiment à des corrélations, à distinguer des causalités. Il existe par exemple une corrélation entre les crèmes solaires et les cancers de la peau : cela signifie-t-il que les crèmes solaires provoquent le cancer de la peau ? Bien évidemment non ; ce résultat est simplement dû au fait que les gens qui utilisent des crèmes solaires s'exposent en général au soleil et que le soleil peut provoquer des cancers de la peau. Malheureusement, lorsque l'on effectue de l'apprentissage machine avec de grandes quantités d'exemples, on n'est pas en mesure de s'assurer de l'absence de cofacteurs comme ceux-ci.

La deuxième question est celle des explications : si l'on veut que des systèmes d'intelligence artificielle puissent contribuer à la décision médicale, il faut que le médecin soit en mesure de comprendre la décision proposée par la machine, ce qui implique de construire une petite histoire reliant les caractéristiques d'un patient aux éléments de la prise de décision. Cela fait actuellement l'objet de recherches. L'apprentissage profond fonctionne très bien avec les données dites « non structurées », les images ; mais lorsque l'on est en présence de données structurées, cela requiert la mise en oeuvre d'autres techniques d'apprentissage, qui nécessitent vraiment de disposer d'explications.

Peut-être certains d'entre vous se souviennent-ils du professeur Jean Bernard, très grand médecin, qui eut une influence considérable dans les années 1980 et 1990. J'avais eu la chance de le rencontrer, car il avait souhaité s'entretenir avec moi lorsque j'avais publié un petit ouvrage sur l'intelligence artificielle. Il pensait que l'on allait, avec ces machines, être en mesure de s'affranchir des dogmes, des idées préconçues qui biaisent les inductions des médecins et des scientifiques. Nos discussions avaient été très enrichissantes. Je lui avais par exemple expliqué que, contrairement à sa supposition, les machines n'empêchaient pas les dogmes liés aux biais sur les données, aux représentations. Cette question est bien évidemment toujours d'actualité.

Je terminerai en évoquant la question de l'autorité. Le fait qu'il existe des sites publics d'information qui diffusent énormément de connaissances, vraies ou fausses, sur les maladies, peut conduire à une mise en cause du savoir médical. Cela peut être positif, dans le sens où le patient devient véritablement acteur de sa santé, mais aussi avoir des effets négatifs, dans la mesure où cela ouvre la porte à la diffusion, par divers groupes de pression, d'informations fallacieuses. Je citerai, à titre d'illustration, les débats sur la vaccination : il existe dans notre pays énormément de réticences vis-à-vis de la vaccination, alors même que tous les spécialistes en soulignent les bienfaits, notamment au niveau collectif. Il faut expliquer à la population que les gens ne se vaccinent pas uniquement pour eux-mêmes, mais aussi pour les autres. On sait par exemple que le vaccin contre la grippe est assez peu efficace chez les personnes âgées, qui sont les plus vulnérables au virus ; il faut donc que les jeunes se vaccinent pour éviter de contaminer leurs aînés.

Je vous remercie.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.