Mesdames les présidentes, je vous remercie pour cette invitation. Les neurosciences couvrant un champ extrêmement vaste, nous allons nous focaliser sur quelques questions en lien avec la bioéthique.
Les recherches en neurosciences conduisent au développement de neurotechnologies. J'entends par là les dispositifs capables de lire l'activité cérébrale, c'est-à-dire de la décoder, et éventuellement d'écrire des informations neurales dans le cerveau. Citons quelques exemples. Il y a d'abord les implants cérébraux, technologie invasive qui consiste à percer le crâne pour placer des dispositifs dans certaines structures du cerveau. La stimulation à haute fréquence, mise au point depuis plus de vingt-cinq ans par des laboratoires bordelais et grenoblois, permet ainsi de soigner des personnes atteintes de la maladie de Parkinson. Il y a par ailleurs des technologies non invasives comme les casques de réalité virtuelle, qui ciblent les systèmes sensoriels de l'utilisateur, des applications de téléphone portable, ou des casques recueillant un signal encéphalographique. Il faut bien voir que ce n'est pas parce qu'elles ne sont pas invasives qu'elles n'ont pas d'influence sur la personnalité de l'individu, ce qu'on va appeler son « agentivité ». Elles se développent à grande vitesse et représentent un marché important. Déjà, aux États-Unis, plus d'une centaine de millions de dollars sont chaque année investis dans ces domaines. De nombreuses firmes impliquées dans l'intelligence artificielle s'y intéressent fortement.
Quels problèmes posent ces neurotechnologies ? Pour répondre à cette question, je vais m'appuyer sur les études menées par un groupe de travail international auquel je participe depuis maintenant deux ans.
Le premier problème renvoie à la confidentialité et au consentement. L'activation de ces dispositifs d'enregistrement ne nécessite généralement qu'un simple clic et, comme ils sont connectés à internet, ils ouvrent la possibilité que des hackers ou des organisations privées, avec ou sans but lucratif, voire des agences gouvernementales, suivent ou même manipulent une expérience mentale individuelle. Les algorithmes utilisés pour améliorer l'impact de la publicité, pour calculer des primes d'assurance, ou pour mettre en correspondance des partenaires potentiels, sont susceptibles d'utiliser ces informations neuronales qui concernent des états d'attention ou des états d'émotion. Certaines entreprises ont déjà équipé leurs employés. Des dizaines de sociétés chinoises associées au secteur de l'armement auraient fourni à leurs ouvriers des casques équipés de dispositifs de surveillance de l'attention et de l'émotion. Il est déjà possible aujourd'hui d'établir des diagnostics précoces de la maladie d'Alzheimer en enregistrant simplement la manière dont les personnes activent les écrans de leur téléphone portable ou frappent sur le clavier.
Les possibilités d'intrusion existent et nos concitoyens devraient avoir la capacité de garder un droit de regard sur le caractère privé de ces données. Cela a à voir avec le règlement général de protection des données (RGPD), mais comme elles n'ont pas un caractère explicite de données de santé, elles ne sont pas forcément couvertes par les garanties qu'il offre.
Parmi les préconisations, divers aménagements sont envisagés : faire de l'activation et de la transmission des données un choix par défaut ; en cas d'acceptation, proposer un choix explicite via un processus sécurisé et transparent ; limiter les possibilités de vente et de transfert des informations aux sociétés susceptibles de collecter les données neurales ; limiter ou du moins surveiller le traitement centralisé de ces données, autrement dit leur croisement avec d'autres données du big data.
D'autres problèmes peuvent naître de l'agentivité. Il est clair que certains implants à haute fréquence modifient la personnalité des individus. Aujourd'hui, il existe un développement de la neurologie particulièrement prometteur pour les malades, le traitement en closed loop ou boucle fermée, qui permet d'adapter beaucoup mieux les dispositifs de stimulation à l'activité réelle du sujet. Toutefois, automatiser le rapport entre la détection de la volonté d'un mouvement et la mise en oeuvre du mouvement lui-même comporte le risque de se substituer à l'intention réelle de la personne, qui pourra contester avoir voulu effectuer le mouvement qu'on l'a amenée à faire. Ces dispositifs peuvent en outre provoquer des modifications de l'humeur ou une hypersexualité. Cela nécessite de prévenir les personnes non seulement des difficultés techniques que la pose des implants induit mais aussi des effets possibles sur leur humeur et leur personnalité. De la même manière, les dispositifs non invasifs sont susceptibles, à travers des manipulations sensorielles, de modifier la perception de soi-même. Il faut s'y intéresser.
J'en viens à la troisième source de problèmes : l'amélioration des performances. Elle comporte un risque de coercition lié à une volonté normative : équiper une personne d'un implant cochléaire sous prétexte de lui permettre de mieux entendre peut, par exemple, entrer en contradiction avec le droit à la neurodiversité revendiqué par certains. Elle implique aussi de prévoir un encadrement et des lignes directrices. Il faut ainsi s'assurer que les expériences destinées à améliorer la mémoire grâce à des stimulations électriques de l'hippocampe restent limitées aux laboratoires dans des conditions extrêmement contrôlées. Il faut en outre se méfier du neurocharlatanisme, de tous ces dispositifs qui promettent, faussement, des améliorations cognitives. Un avis de Comité consultatif national d'éthique (CCNE) est venu répondre à ces questions récemment.
Enfin, il faut prendre garde aux biais produits par les algorithmes à partir des données historiques, culturelles et sociales qu'ils recueillent. En prenant appui sur des données de la population, il est toujours possible de faire apparaître que les femmes s'occupent des enfants tandis que les hommes travaillent.
Les neurotechnologies peuvent apporter une aide utile aux personnes en situation de vulnérabilité, voire de dépendance. Pensons aux exosquelettes ou aux robots de compagnie. Veillons toutefois à ce qu'il n'y ait pas une substitution avec la personne humaine et que l'on ne transforme pas un monde humain en un monde d'intelligence artificielle. Tout cela nous pousse à nous interroger sur une nouvelle rédaction de l'article 16-14 du code civil qui dispose que : « Les techniques d'imagerie cérébrale ne peuvent être employées qu'à des fins médicales ou de recherche scientifique, ou dans le cadre d'expertises judiciaires. » Ne devrait-on pas l'étendre à l'analyse de l'anatomie ou de l'activité cérébrale ? Cela permettrait sans doute de mieux contrôler les différents dispositifs.