Mission d'information sur la révision de la loi relative à la bioéthique

Réunion du jeudi 25 octobre 2018 à 9h55

Résumé de la réunion

Les mots clés de cette réunion

  • humain
  • intelligence
  • machine
  • robot
  • éthique
Répartition par groupes du travail de cette réunion de commission

  En Marche    Les Républicains  

La réunion

Source

Mission d'information DE LA CONFÉRENCE DES PRÉSIDENTS SUR LA RÉVISION DE LA LOI RELATIVE À LA BIOÉTHIQUE

Jeudi 25 octobre 2018

Présidence de M. Xavier Breton, président de la Mission

La Mission d'information de la conférence des présidents sur la révision de la loi relative à la bioéthique procède à l'audition de Mme Laurence Devillers, professeure à l'université Paris IV Panthéon-Sorbonne, chercheuse au Laboratoire d'Informatique pour la Mécanique et les Sciences de l'Ingénieur (CNRS).

L'audition débute à neuf heures cinquante-cinq.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Nous avons le plaisir d'accueillir Mme Laurence Devillers, professeure à l'Université Paris IV Panthéon-Sorbonne et chercheuse au laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur du CNRS. Nous vous remercions, madame, d'avoir accepté notre invitation à cette audition, qui est enregistrée. Vos principaux domaines de recherche sont l'interaction homme-machine, la détection des émotions, le dialogue oral et la robotique affective et interactive. L'intelligence artificielle devant être l'un des sujets abordés lors de la révision de la loi de bioéthique, votre expertise dans le domaine des robots et les problématiques afférentes fera mûrir notre réflexion.

Permalien
Laurence Devillers, professeure à l'Université Paris IV Panthéon-Sorbonne, chercheuse au laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur du Centre national de la recherche scientifique (CNRS)

Je travaille effectivement depuis trente ans sur l'intelligence artificielle. Ma thèse portait sur l'utilisation du perceptron multicouche, des réseaux de neurones qui sont les ancêtres de ce que l'on appelle actuellement l'apprentissage profond ou deep learning, qui n'est donc pas nouveau. Les fondamentaux et les concepts utilisés sont toujours les mêmes. Le changement ne tient pas tant à la modification des algorithmes qu'à la capacité de calcul : pouvoir traiter un nombre gigantesque de données permet d'obtenir des performances que l'on ne pouvait imaginer précédemment. L'intelligence artificielle est un pharmakon : comme l'eau, cela permet de soigner ou d'empoisonner.

Je m'exprime sur plusieurs sujets liés à l'interaction avec la machine, aux algorithmes utilisés dans les robots dits « agents conversationnels » ou chatbots, aux bénéfices et aux risques qu'ils présentent. Je suis évidemment favorable à la technologie – on ne peut m'accuser du contraire puisque j'ai fondé ma carrière sur l'idée que l'on peut construire des machines intéressantes pour le bien commun : pour la santé, l'éducation, le transport et un grand nombre de tâches ou d'applications différentes. Mais je m'interroge d'abord sur la prise en compte des risques liés à ce domaine de la science.

Pour cette raison, je suis sortie de mon laboratoire il y a deux ans pour écrire un livre intitulé Des robots et des hommes : mythes, fantasmes et réalités, avec l'idée de démystifier et de rendre accessibles au plus grand nombre les informations relatives à ces systèmes qui ne sont pas robustes et qui ne sont pas ce qu'ils prétendent être. Je considérais que ces sujets d'ordre éthique devaient être pris en considération de façon urgente. Je suis sortie de mon laboratoire indignée, parce que les chercheurs ne le font pas suffisamment alors que c'est aussi l'un des aspects de leurs travaux de recherche. L'éthique n'arrive pas après que l'on a conçu un objet ou une fonctionnalité : la conception même de la recherche doit être éthique – c'est ce que l'on appelle ethics by design. Cela signifie qu'il faut tenir compte d'informations sur les répercussions que pourrait avoir ce type d'objet pour la santé ou pour l'accompagnement des personnes âgées. C'est le point de vue que je défends.

Si l'on reprend l'idée des réseaux de neurones, qui sont actuellement les systèmes les plus puissants, tant pour établir un diagnostic médical que pour faire de la reconnaissance des formes qui permettrait de construire un robot compagnon pour les personnes âgées, capable de reconnaître des objets et des personnes, sachez qu'une moitié du résultat est liée aux données et l'autre moitié aux algorithmes. Quelle est la part de l'humain dans tout cela ? Au départ, on construisait des « systèmes experts », dont les règles étaient définies par des experts ; maintenant, on utilise des systèmes qui construisent leurs connaissances à partir des données. Où est l'humain dans le choix des données et dans l'optimisation et l'évaluation de l'algorithme ? Il est encore extrêmement présent. Aussi est-il très gênant de lire un peu partout que ces machines apprennent seules et qu'elles sont créatives.

Elles n'apprennent pas seules, parce que l'on utilise des algorithmes dits supervisés ; la supervision provient des étiquettes que l'on ajoute à certaines formes. C'est aussi l'homme qui décide de mettre en oeuvre cet algorithme et qui en choisit les paramètres. On a vu les dérives de machines fabriquées par Microsoft par exemple, capables d'apprendre en continu et se mettant à débiter des propos racistes : parce que le système n'était pas complètement verrouillé, il apprenait avec une semi-supervision qui permettait à la machine de créer des choses seules. Ces objets, qui peuvent apprendre d'une certaine manière, avec une certaine liberté donnée par les humains, doivent être contrôlés en continu.

La créativité des machines est une créativité laborieuse. Par essais-erreurs, on trouve des choses certes intéressantes et nouvelles, et c'est créatif, mais la machine est incapable de s'en rendre compte : on ne peut pas créer un système qui permet de se rendre compte de la nouveauté puisque, par principe, on construit des modèles à partir de données qui existent déjà. Il n'y donc aucune possibilité de créer quelque chose de nouveau et de s'en apercevoir.

J'ai commencé à travailler en 2000 à l'affective computing, technologie née au Massachusetts Institute of Technology en 1997. J'ai été parmi les premiers à construire cette communauté de recherche autour de trois technologies : le fait de détecter les émotions dans le comportement des humains ; le fait d'interpréter ces informations pour générer une stratégie différente et répondre différemment à toute personne ; l'expressivité de ce que l'on donne comme résultat – qui peut être : « Je vous aime » ou « Vous êtes formidable »…

Je suis sortie de mon laboratoire pour dire exactement cela, après avoir fait de nombreuses expérimentations à l'hôpital Broca et dans des maisons de retraite, auprès de patients âgés, avec ce genre de machines munies, donc, de capacité émotionnelle. Il y a une forte projection des capacités humaines sur ces machines : si vous prenez des machines différentes mais dotées du même logiciel, l'une étant dans un meuble, l'autre un « R2-D2 » brillant et la troisième ressemblant à un être humain, la machine qui ressemble à l'être humain semblera plus intelligente – et l'on va pousser cela très loin. Ainsi, parce que j'ai écrit un livre sur les robots, je reçois des messages au sujet des robots aspirateurs – les seuls que les gens aient chez eux pour l'instant. Mes correspondants m'expliquent que leur robot aspirateur est assez autonome et va se recharger seul, et me demandent : « Que pense le robot quand il s'arrête au milieu de mon salon ? ». Il y a urgence à vulgariser, à expliquer et à faire manipuler ces outils.

Je travaille actuellement sur « démystifier et alerter ». Les peurs sont nombreuses. Or, la « super-intelligence » est une absurdité et les scientifiques doivent être suffisamment explicites pour faire comprendre qu'il est impossible qu'une machine, dans l'état où elle est construite maintenant, dégage une certaine conscience ou une pensée. C'est d'autant plus vrai que l'on est très loin de savoir ce que sont la conscience et le substrat de la pensée : on sait seulement qu'il y a un cerveau et qu'il est forcément utile.

Je suis atterrée d'entendre des collègues faire des conférences sur le brain computer interaction, expliquant que, sans plus parler, je pourrais transmettre par la pensée des informations qui piloteront une machine. Il y a là un bluff. Il est possible de le faire, et c'est très bien pour une personne handicapée qui veut faire se mouvoir son fauteuil roulant en avant et en arrière. Comment ce système fonctionne-t-il ? C'est une forme d'apprentissage dans laquelle on associe un mouvement de la machine à une figure géométrique de couleur à laquelle on va penser, et l'on entraîne la machine, avec des capteurs non invasifs, à récupérer ces signaux après apprentissage. En général, les fonctions sont peu nombreuses : il peut y en avoir quatre – un carré rouge, un rond jaune… –, ce qui rend possible la détection des différences entre les quatre signaux, et le déclenchement d'une action de ce type, qui donne un truc « magique ». La semaine dernière, au Forum Big Bang Santé, qui était par ailleurs extraordinaire, j'ai vu quelqu'un faire cette démonstration au grand public : un jeune garçon s'était entraîné à penser à un rond rouge et des capteurs transmettaient cette impulsion à un objet placé sur la table, le faisant se déplacer.

Il ne faut pas présenter ce genre d'expérience sans donner d'explications. Ne pas expliquer, c'est laisser entendre que l'on sait décrypter le cerveau et que la parole n'est plus nécessaire ; on va directement vers la télépathie. Or, on sait très bien que par le langage, on est dans l'élaboration de la culture, du savoir commun. Si l'on imaginait un système dans lequel nous serions tous en télépathie, comment pourrions-nous nous exprimer ensemble, écrire ensemble et augmenter nos connaissances ? Sachant les investissements faits par les « GAFA » en ces matières, j'alerte sur ces problèmes. Et quand je lis dans le journal Le Monde, il y a quelques jours, que ce sont principalement les GAFA qui élaborent l'éthique relative à ces systèmes, je m'offusque également, car cela signifie que ce sont les créateurs des systèmes qui les évaluent. Où est la déontologie ?

Je considère d'autre part que l'on donne pour place un strapontin à la robotique dans le futur texte relatif à la bioéthique en ne prenant pas suffisamment en compte les répercussions que ces objets peuvent avoir sur notre santé, alors qu'il y a également urgence à ce sujet. Il est important de comprendre que ces systèmes fonctionnent différemment de l'esprit humain. Or, nous les comparons toujours à l'humain. Ces machines ont des performances extrêmement utiles et puissantes pour reconnaître des cellules cancéreuses dans des images, pour détecter des infrasons et des ultrasons que moi, humain, je n'entends pas, et elles peuvent, sur la base de ces informations, faire des calculs et trouver des résultats qui ne sont pas à ma portée. Il faut apprendre à utiliser cela. On peut, grâce à ces machines, voir l'intérieur de son corps : j'ai vu dernièrement un système qui permet de voir son bébé dans son ventre ; imaginez l'interaction que cela permet !

Je travaille beaucoup sur l'idée de coévolution humain-machine. Nous construisons des machines à une vitesse exceptionnelle sans prendre le temps d'expliquer à tout le monde à quoi elles servent – et cela vaut partout. En Chine aussi, on va droit dans le mur : rappelez-vous ce jeune homme qui, accepté dans une faculté de médecine, s'en est finalement vu refuser l'accès parce que son père n'avait pas payé ses impôts. On voit se mettre en place un code moral qui aura des répercussions dans tous les domaines. Quand on voit, dans les campagnes chinoises, des jeunes garçons et des jeunes filles laissés isolés de l'éducation des parents et qui n'ont plus comme ressources éducatives que les réseaux sociaux, on assiste à une forte dérive. On ne soupçonne pas à quel point c'est important.

Un mot sur les émotions. On pense que c'est pour demain. Or, déjà, Sophia, conçu par Hanson Robotics, robot prétendument empathique qui comprendrait l'humanité, a été présenté à l'ONU comme capable de répondre devant un hémicycle de personnalités politiques. Je m'insurge, encore une fois, car ce sont des dialogues prescrits : cette machine n'a pas d'autonomie et il est absurde de penser la laisser parler devant un tel hémicycle, absurde de penser lui donner des droits, des devoirs et une personnalité juridique. Ce serait dangereux, parce que derrière tout cela, quelqu'un a conçu le programme qui fait que la machine se comporte ainsi. Il y a une part de liberté et d'imprévisibilité dans ces machines qui fait qu'on leur attribue des capacités qu'elles n'ont pas. Il faut l'apprendre à tout le monde.

L'aspect positif de ces robots est qu'ils peuvent aider des gens affectés par une maladie dégénérative et repliés sur eux-mêmes. Ces systèmes peuvent beaucoup apporter, il ne faut pas occulter. Mais, à l'inverse, je vais être entourée d'objets qui me traqueront, détecteront mes émotions et mon comportement avec des indices extrêmement fins dont je n'ai même pas conscience. Ils en tireront des déductions et auront peut-être des stratégies vis-à-vis de moi, dans tous les domaines, que ce soit pour ma santé, pour me conseiller politiquement ou pour me vendre des objets. Là encore, il y a urgence à mieux comprendre vers quoi on se dirige.

Ce qui est mis en avant par le Comité national consultatif d'éthique (CCNE) sur le numérique est gravement insuffisant au regard des dangers. Je ne suis pas la seule à le dire : lisez le livre de Cathy O'Neil, Algorithmes : la bombe à retardement. Ce livre, connu dans le monde entier, sera disponible en version française à partir du 7 novembre. Tout le monde doit le lire. Cathy O'Neil, issue de l'univers Google, montre que ces applications rendent la société plus injuste et plus discriminante. Mais on peut faire autrement. On peut créer du lien social et une meilleure répartition des ressources grâce à l'intelligence artificielle, c'est certain. On peut vivre mieux, se comprendre mieux, c'est certain aussi. Mais pour cela, il faut savoir réguler, comprendre, démystifier, éduquer et créer des comités d'observation de ces usages, puisque l'éthique n'est pas statique ; c'est d'un processus dynamique que l'on a besoin, et de chercheurs pluridisciplinaires travaillant continûment sur ces objets et leurs usages, avec des comités d'éthique.

Enfin, je travaille actuellement sur le nudging, autrement dit la « manipulation douce » amplifiée qui arrivera par le biais de tous ces objets. Vous savez ce que cela a déjà donné en politique ; vous verrez qu'avec ces objets qui détectent vos affects à longueur de journée, on sera encore « meilleur » sur ce plan.

Parce que l'on doit réfléchir à ces questions au niveau international, je suis impliquée dans des comités d'éthique nationaux et internationaux ainsi que dans IEEE, société savante internationale qui vise à développer la technologie au profit de l'humanité. J'essaie de pousser à une meilleure définition de ce qu'est le nudging par ces objets qui embarqueraient de l'affect. Je suis en contact avec des chercheurs de nombreux autres pays qui ont compris l'urgence avant nous, puisque l'on ne voit rien arriver à ce sujet en France, même en santé, contrairement à ce qui se passe au Canada, en Angleterre et au Japon. Je rencontrerai dans les prochaines semaines des académiciens des sciences, des politiques et des chercheurs qui jugent ces questions importantes. Elles doivent vraiment le devenir pour tous, car l'intelligence artificielle, la robotique et ce monde artificiel touchent aux questions de santé, d'éducation, de transports, de politique et d'influence dans toute la société.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Je vous remercie. Considérez-vous que l'idée de doter les robots d'une personnalité juridique est intéressante ou dangereuse ? Le CCNE préconise l'introduction dans la loi du principe de garantie humaine du numérique en santé ; cela vous semble-t-il intéressant ? Quelles pourraient en être les modalités pratiques ?

Permalien
Laurence Devillers, professeure à l'Université Paris IV Panthéon-Sorbonne, chercheuse au laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur du Centre national de la recherche scientifique (CNRS)

Je suis évidemment opposée à l'idée de doter un robot d'une personnalité juridique. Cela bouscule la notion de ce qu'est l'humain. On voit en ce moment se propager une dérive consistant à dire que l'on recopie l'humain sur une machine – à laquelle, ensuite, on donnerait des droits ? Mais c'est une vaste fumisterie, puisque ce sont des humains qui créent ces objets ! On ne peut pas penser que la machine est elle-même capable de se créer : c'est une ineptie scientifique, cela n'existe pas. C'est une confusion de langage de dire que « la machine apprend toute seule ». Elle « apprend toute seule » parce que l'homme a créé l'algorithme et parce qu'il a donné des étiquettes ou des récompenses pour apprendre, ou des manières d'apprendre par similarité avec des mesures de différenciation de formes. Derrière ces robots, il y a des fonctions mathématiques. Arrêtons donc de penser que la machine fait toute seule, alors qu'elle fait grâce à des êtres humains. Et si une part de liberté liée à l'imprévisibilité permet d'atteindre d'autres sommets de performance, ce n'est pas en raison d'une part consciente, intentionnelle de la machine.

En conséquence, à mon avis, la responsabilité doit être une coresponsabilité entre les concepteurs, qui peuvent être un ensemble, et les utilisateurs si la machine apprend en continu – car l'utilisateur a alors une influence, à l'instar du maître d'un chien qui peut le former à mordre. J'ajoute que pour doter les robots d'une personnalité juridique, il faudrait mettre une somme d'argent sur la « tête » de chacune de ces machines ; seuls pourront le faire de grands groupes ; cela signifie que cela tue toute intention de créer des machines peut-être très intéressantes dans des start-up. Enfin, sur le plan juridique, dès lors que la machine serait considérée comme responsable, irait-on voir plus loin ? Forcément, si elle a créé quelque chose qui n'était pas souhaitable et provoqué des dommages, il est nécessaire de modifier son codage, selon les modalités que j'ai décrites. Je suis donc favorable à une régulation souple, intelligente, résultant de l'observation des usages.

Il ne faut pas nier le fait que la robotique peut avoir un intérêt, et l'humain est fondamental pour évaluer, créer, nourrir ces machines de données choisies, de qualité, non discriminantes, loyales, équitables, pour éviter des injustices évidentes – par exemple ne reconnaître que les personnes à peau blanche, comme on l'a constaté sur certaines plateformes, ou discriminer les femmes par rapport aux hommes pour certains types de travail, ce que l'on a vu aussi. Nous, scientifiques, pouvons apporter des outils à cette fin, et montrer des mauvaises pratiques. Souvent, les industriels, parce qu'ils s'intéressent en premier lieu aux retombées économiques, n'ont pas pris le temps de considérer les retombée sociétales de leurs inventions. Or, il est urgent de prendre aussi en considération cet aspect-là.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

On distingue schématiquement l'intelligence rationnelle et l'intelligence émotionnelle. L'intelligence artificielle a beaucoup progressé pour ce qui concerne la première, et ses progrès touchent maintenant l'intelligence émotionnelle, ce qui, même si cela présente aussi des avantages, fait s'interroger, en raison de nombreuses implications éthiques. Mais qu'en est-il des grandes innovations imaginatives ? On prend toujours l'exemple de la bougie, à partir de laquelle nul ordinateur ne pourrait mettre au point l'ampoule électrique. L'intelligence artificielle permettra-t-elle un jour de telles ruptures technologiques imaginatives ?

En médecine, l'intelligence artificielle a des aspects positifs : cela augmente les performances, contribue à lutter contre les déserts médicaux, améliore et amplifie le recours à des avis d'experts, et des objets connectés peuvent, un peu comme les animaux domestiques, faire reculer la solitude et le recours aux anxiolytiques et aux antidépresseurs. Mais, dans le même temps, cela diminue les contacts humains et l'approche psychologique du sujet, et cela l'éloigne du médecin. Cela entraîne aussi des abus commerciaux, avec la vente d'objets connectés médicaux qui ne sont pas véritablement utiles, et cela aggrave la fracture numérique au sein de la population. Enfin, la multiplication de ces objets accroît les risques de perte de confidentialité des données. Comment, alors, préserver les bénéfices de ces technologies appliquées à la médecine, dont il n'est pas question de se priver, sans trop de dangers potentiels ?

Permalien
Laurence Devillers, professeure à l'Université Paris IV Panthéon-Sorbonne, chercheuse au laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur du Centre national de la recherche scientifique (CNRS)

Ce qui concerne l'intelligence émotionnelle, dite affective computing en anglais, qui est mon domaine de recherche, ne marche pas bien du tout en ce moment ; malgré cela, les start-up fleurissent déjà dans ce domaine. Dernièrement, Amazon a même déposé un brevet pour un système visant à détecter l'état émotionnel des personnes isolées et tristes en vue de leur fournir des ersatz d'humanité par un marketing ciblé. Je trouve cela insupportable. Je ne sais comment on peut faire pour que ces sociétés cessent d'exploiter ces possibilités alors que la technologie mise en oeuvre n'est ni robuste ni évaluée et qu'il n'y a aucun cadre permettant de refuser des objets qui arrivent au sein des foyers pour soigner ou suivre des malades et qui devraient être contrôlés. On a toute latitude de concevoir ces objets selon des critères librement fixés, et l'on peut très bien, par exemple, concevoir une machine qui se déconnecte au bout d'un temps donné. On peut aussi imaginer une machine qui se présente comme une machine, et non pas comme Sofia, Nadine ou Alexa. Vous constaterez que l'on donne surtout des prénoms féminins à ces objets – et la représentation de la femme par ces machines est déplorable ; il faut dire que 80 % des concepteurs de ces machines sont des hommes.

Je ferai une incise sur les robots sexuels qui arrivent sur le marché et qui vont déstabiliser aussi l'entité familiale et les relations humaines. On commence à le voir au Japon, où l'on trouve un chatbot nommé Gatebox, qui montre un hologramme représentant une jolie jeune fille animée. Ce succédané d'être humain ne détecte pas les émotions, il fait seulement acte de présence : l'être humain projette ses émotions sur l'objet qui lui prodigue des conseils et lui donne du « mon chéri ». Et quand il part travailler, la « chose » lui envoie des textos… L'attention de l'individu est donc captée en permanence, sans que ses émotions soient forcément traitées par cet « objet » qui ressemble à ces jeux qui isolent les enfants, devenus dépendants, du monde réel.

Pourquoi ne pas étudier les dérives déjà observées au Japon pour mieux comprendre ce qu'il faudrait faire ? Il est urgent de créer des observatoires de ces usages, où des chercheurs travailleront aux moyens de mettre des freins et d'évaluer où l'on va. Je travaille sur un projet intitulé Bad Nudge, à Paris-Saclay, dans lequel j'ai embarqué des juristes et des économistes du comportement. Nous essayons de comprendre quelles sont les métriques de manipulation utilisées : comment, par exemple, une machine insistera pour vous faire parler de sujets que vous n'auriez peut-être pas évoqués spontanément, comment elle entre dans votre intimité. Le défi est de réussir à fabriquer un objet intelligent capable de faire passer le test de Turing à ces différentes machines – et qui, de plus, doit toujours s'adapter, parce qu'il y a une accélération permanente de ce que l'on peut faire avec des objets numériques. Il faut prendre garde à ne pas se faire enfermer. Cela signifie que le réseau ne doit pas être totalement couvert. C'est ce qui fait peur, d'ailleurs, dans le fait que la médecine va nous aider tout le temps : si je suis sans cesse sous contrôle – de la ville, de la machine, du robot aspirateur, d'une puce sous-cutanée… – je ne sais pas bien dans quel monde je vais vivre au prétexte de mon bien-être et de ma santé. Vous avez bien exprimé la nature de cette dérive. Personne, actuellement, n'a de réponses exactes ; en revanche, nous avons des pistes d'actions possibles sur les algorithmes, sur la surveillance de ces systèmes. Mais surveiller des systèmes avec d'autres systèmes, est-ce un empilement et une fuite en avant ? Il faut évidemment garder des êtres humains dans ces boucles de surveillance. Cela suscite de nouveaux métiers dont on ne parle pas : éthicien, entraîneur de données, surveillant de la coévolution humain-machine, etc. Je rappelle que l'homme s'adaptera à ces machines et que ces machines s'adapteront à lui. Je vous en donne un exemple significatif : on a montré que la taille de l'hippocampe – la zone de la mémoire – n'est pas la même chez les chauffeurs de taxi selon qu'ils ont mémorisé toutes les rues des villes où ils travaillent ou qu'ils ont délégué leur mémoire à un système de navigation satellitaire embarqué.

S'agissant des objets émotionnels en médecine, je suis récemment intervenue dans des congrès consacrés à la réanimation et je pense que l'on pourrait faire beaucoup pour mieux comprendre la zone de coma et ce qu'est la vie en observant, avec des objets et des médecins dans la boucle, ce qui se passe au cours de ces transitions pendant lesquelles des gens reviennent à la vie, des patients qui ont eu un accident vasculaire cérébral (AVC) retrouvent la mémoire. Il faut, pour cela, faire travailler ensemble des neuroscientifiques, des ingénieurs et des gens capables de maîtriser les réseaux de neurones et les machines les plus performantes en intelligence artificielle, des psychologues, des médecins et des psychiatres. Notre force, c'est cet univers interdisciplinaire, et nous avons une force supplémentaire en Europe, qui est la présence insistante de la philosophie dans nos mémoires et dans notre histoire.

Je dis toujours qu'une machine n'est qu'une machine parce qu'elle n'a pas de conatus, pas d'appétit de vie. Et pour montrer à quelqu'un que c'est une machine, je la démonte en petits morceaux puis je la reconstruis, et elle « revit »… au sens de la machine. On doit apprendre à désosser les objets, à en faire des objets plus petits et à les réparer. Alors on les considèrera à nouveau comme des machines. C'est pourquoi j'ai proposé la création d'un observatoire interdisciplinaire où travaillent ensemble des chercheurs qui font des thèses de bon niveau, avec une possibilité de laboratoire ouvert à la société, où des citoyens et des classes pourraient venir à certains moments, pour aider à mieux comprendre ces différents sujets, ce qui se produit le jour où l'on y regarde d'un peu plus près et où l'on n'a pas peur.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Je suis de ceux qui acceptent les nouveautés avec un regard très critique. Ainsi, le bouton qui permet d'ouvrir les volets est une très heureuse invention pour les personnes handicapées, mais tous ceux qui ne le sont pas l'utilisent aussi, se privant ainsi du plaisir de ressentir le temps qu'il fait, la fenêtre ouverte. Vous dites qu'il faut démystifier les machines, que les enjeux sont d'une importance considérable et qu'il est urgent de créer un observatoire et de mettre des freins. Mais comment garder l'humain, avec ce que cela implique de liberté et d'imprévisibilité ? L'homme s'adaptera-t-il aux machines ou les machines à l'homme ? Quant à désosser les machines pour se rendre compte qu'elles ne sont que des machines, tous les utilisateurs ne le font pas, tant s'en faut : ils les utilisent et c'est tout, au point de ne plus appréhender la différence entre le réel et la fiction et d'en devenir dépendants, enfants comme adultes.

Permalien
Laurence Devillers, professeure à l'Université Paris IV Panthéon-Sorbonne, chercheuse au laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur du Centre national de la recherche scientifique (CNRS)

On peut, à l'école, éduquer les enfants à désosser de petites machines. C'est assez facile avec des automatismes et je l'ai vu faire au Brésil : des enfants concevaient des petits robots sous forme de mains articulées et utilisaient une petite seringue emplie d'eau pour faire bouger les doigts et communiquer. Je trouve très bien de partir de quelque chose qui n'est même pas numérique pour faire comprendre ce qu'est cette dynamique, puisque si ces machines fascinent, c'est parce qu'elles sont en mouvement : c'est pourquoi on les prend au sérieux et que l'on projette sur elles des désirs ou des capacités humaines. On peut apprendre d'où vient ce mouvement.

D'autre part, si l'on ne désosse pas les machines, ce n'est pas tant parce que les hommes ne veulent pas le faire que parce que l'on ne peut pas. Si je veux réparer mon téléphone portable, je n'y parviendrai pas, même si je suis un tant soit peu habile, parce que le constructeur l'a conçu encapsulé de façon à ce que cela ne soit pas possible : ces machines sont conçues exprès pour être remplacées. On peut faire bouger les choses en expliquant qu'il est souhaitable de faire autrement – et l'on commence à le faire ailleurs dans le monde : en Inde, en Afrique, les gens réparent, et de plus en plus grâce au fait que l'intelligence artificielle se répand partout sur les réseaux sociaux, que l'on peut avoir accès à énormément d'informations et de cours. Il n'est plus besoin d'aller à l'université d'Harvard désormais : les cours de Harvard sont maintenant en ligne, comme les librairies qui permettent de construire ces systèmes. Des fermiers en Inde et en Afrique peuvent ainsi bâtir des machines leur permettant d'évaluer la qualité de l'air ou de l'eau autour d'eux. On peut fabriquer toutes sortes d'objets qui rendront les modes de vie plus écologiques et qui permettront à tout le monde d'en profiter. Mais il faut éduquer en ce sens, éduquer aux grandes découvertes. On ne sait pas ce que sera demain, mais n'ayons pas peur.

Voyez Franck Zal : chercheur en neurosciences au CNRS en biologie animale et s'intéressant à un certain ver marin qu'il a vu sur une plage bretonne, il a découvert que ce ver a l'extraordinaire propriété d'être doté d'une hémoglobine universelle, compatible avec le sang humain de tous rhésus. Le CNRS ne l'écoute pas, les grands instituts pas davantage ; il quitte le CNRS, monte une ferme, produit ces vers, en extrait l'hémoglobine, la lyophilise et lui ajoute de l'eau. Cela donne des poches de sang qui permettent actuellement de mieux conserver des organes en vue de transplantation et de mieux cicatriser, et qui vont être utilisés par la NASA pour d'autres applications. Il ne faut donc pas sous-estimer la sérendipité des humains, cette faculté de toujours trouver du nouveau, de toujours trouver des consciences intéressantes autour de nous, entre nous. C'est ce lien social qu'il ne faut absolument pas perdre, en construisant un puissant réseau d'associations. Partout où je présente mon livre, des gens me demandent quoi faire. Ma réponse est : créer des associations pour parler de ces questions. C'est la première fois que je vois se manifester autant d'intérêt pour la science. Il faut rendre à chaque citoyen sa conscience d'être responsable, d'être un peu décideur. Les petits pas, on peut les faire ensemble.

Je fais partie d'un comité de recherche sur l'éthique qui publie des livrets. Je vous encourage à les lire. Il en existe un sur la robotique et la robotique affective, un autre sur l'éthique de la recherche dans l'apprentissage de la machines, le consentement, comment on décide avec une machine, quels sont les biais et la robustesse… Ils sont en ligne. Je vous invite aussi vivement à lire Nudge, écrit par Richard Thaler, prix Nobel d'économie 2017, et Cass Sunstein. Il faut propager ces bonnes lectures et vulgariser ces technologies.

PermalienPhoto issue du site de l'Assemblée nationale ou de Wikipedia

Merci, madame, pour ce message très clair et qui nous incite à passer à l'action.

L'audition s'achève à dix heures quarante-cinq.

Membres présents ou excusés

Mission d'information de la conférence des présidents sur la révision de la loi relative à la bioéthique

Réunion du jeudi 25 octobre 2018 à 9h55

Présents. – M. Xavier Breton, Mme Agnès Thill, M. Jean-Louis Touraine

Excusée. – Mme Bérengère Poletti