Intervention de Hervé Chneiweiss

Réunion du mercredi 6 juin 2018 à 9h30
Commission des affaires sociales

Hervé Chneiweiss, professeur, neurologue, directeur de recherche au CNRS, président du comité d'éthique de l'INSERM :

La première chose sur laquelle je voudrais appeler votre attention à tous, c'est notre ignorance. Même si les neurosciences sont en plein développement, nous avons un long chemin devant nous au regard des connaissances qui restent à acquérir. Le Human Brain Project cité par Mme Wonner en est une bonne illustration. Son coût s'élève à un milliard d'euros sur dix ans, alors que le coût des maladies du système nerveux à l'échelle de l'Europe représente 900 milliards d'euros selon une évaluation effectuée en 2015. En outre, le projet a pour objectif de modéliser un circuit de 20 000 cellules dans le cortex cérébral, alors que notre cerveau contient 200 milliards de cellules. Il offrira une possibilité d'avancer vers une meilleure compréhension de la manière dont certains signaux – ce que l'on appelle le code neural – sont intégrés au niveau du cortex cérébral mais il sera loin de donner une solution aux nombreux problèmes qui se posent. Cela reste une petite étape. Il y a encore loin de la coupe aux lèvres.

La responsabilité médicale ne changera en rien, quelle que soit l'ampleur des progrès accomplis grâce à l'intelligence artificielle. Le champ médical sera sans doute entendu au sens large. La profession de conseiller en génétique est appelée à se développer, compte tenu de la complexité des informations génétiques qui peuvent être délivrées. Il faudra aussi compter, à l'hôpital, sur les infirmières référentes qui assurent un lien avec les patients. Mais la responsabilité médicale aura le même poids : l'autonomie et la qualité de vie du patient seront toujours en jeu dans les paroles et les actes du personnel médical. Aucun substitut, quelque forme qu'il prenne, ne saurait modifier la situation.

La neuro-amélioration pose la question de la frontière entre le médical et le sociétal. Le médical s'entend comme la tentative de ramener à l'état le plus normal possible une personne souffrant d'une pathologie ou d'un handicap. Les implants à haute fréquence mis au point par Alim-Louis Benabid et Pierre Pollak ont ainsi permis, depuis plus de vingt ans, à des centaines de milliers de personnes atteintes de la maladie de Parkinson de retrouver une certaine qualité de vie alors que leur traitement n'était plus efficace. La démarche est totalement différente lorsqu'il s'agit d'améliorer la mémoire d'une personne en bonne santé en stimulant électriquement son hippocampe.

Attention aux limites que nous impose notre ignorance. Ce qui peut s'observer dans certaines conditions de laboratoire ne se vérifie pas forcément dans la vie réelle. Tout ce que fait notre cerveau est contextualisé. Je prendrai l'exemple d'une expérience menée dans le domaine cognitif. On a laissé aux participants la possibilité de tricher ou non à des jeux en leur offrant soit une récompense symbolique, soit de l'argent : s'ils pensaient ne pas se faire prendre, ils trichaient, mais seulement s'il y avait un gain financier et si celui-ci profitait à leur équipe. Le cerveau humain est d'une infinie subtilité. Tout doit être recontextualisé si l'on veut savoir de quoi on parle.

Que les choses soient claires par rapport à la responsabilité pénale. Nous sommes capables, grâce aux progrès accomplis en matière de monitoring, d'enregistrer des activités cérébrales, ce qui permet d'évaluer des préjudices ou des degrés d'altération des états de conscience : coma, locked-in syndrome, état de conscience minimale. Toutefois, la détection d'une activité cérébrale ne permet pas d'en déterminer le sens. Si vous montrez au patient une image qui provoque une émotion, vous pourrez enregistrer l'activité cérébrale qui en découle mais vous ne pourrez pas établir que cela correspond au fait d'aimer ou de ne pas aimer telle ou telle chose.

Enfin, il va de soi que s'il est une chose dont nous sommes conscients, c'est bien de l'impact sur la société, qui plus est lorsqu'il s'agit d'enfants. On a ainsi beaucoup parlé de l'utilisation des connaissances en sciences cognitives ou en neurosciences pour améliorer l'éducation. Le groupe « neurosciences » du Comité national d'éthique, dont je faisais partie jusqu'à une période récente, travaille précisément sur la neuro-éducation. En effet, différentes questions se posent à cet égard : dans quelles conditions serait-il éthique de procéder à un essai éducatif, équivalent à un essai thérapeutique ? Comment ne pas faire perdre de chance aux enfants qui participeraient à ces essais ? Ces questions sont extrêmement complexes. En tout cas, il existe une tension entre, d'une part, des programmes conçus sur une base totalement arbitraire – aucun de ceux qui existent actuellement n'a été testé, sauf sur les enfants, dont le Programme international pour le suivi des acquis des élèves (PISA) montre que leurs résultats ne sont guère brillants – et, d'autre part, des programmes ou des méthodes éducatives, auxquels on est en train de réfléchir et qui, eux, seraient évalués. Est-il éthique de conserver des méthodes non évaluées, plutôt que de tenir compte des informations que pourraient nous apporter les neurosciences – vous remarquerez que j'emploie le conditionnel – et qui pourraient permettre, dans des conditions bien encadrées, bien évaluées, une meilleure éducation de nos enfants ?

Enfin, je terminerai en évoquant la question de l'anonymisation, qui me tient à coeur. Vous le savez, cette anonymisation n'est plus possible dans le monde du big data. Dès lors qu'il suffit de rapprocher quatre ou cinq comportements en l'espace d'une journée pour identifier une personne, les différents dispositifs de suivi des individus auxquels nous consentons à notre insu – je pense notamment au téléphone portable – rendent l'anonymisation impossible. Il faut donc passer de la protection de la donnée à la protection de son usage. C'est un enjeu international ; le comité international de l'UNESCO a remis un rapport sur ce sujet l'an dernier. Il faut créer les conditions qui permettent de s'opposer au mésusage de la donnée plus que de s'arc-bouter sur une anonymisation qui est, hélas ! devenue impossible dans le monde du big data.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.