Intervention de Laurence Devillers

Réunion du jeudi 25 octobre 2018 à 9h55
Mission d'information sur la révision de la loi relative à la bioéthique

Laurence Devillers, professeure à l'Université Paris IV Panthéon-Sorbonne, chercheuse au laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur du Centre national de la recherche scientifique (CNRS) :

Je suis évidemment opposée à l'idée de doter un robot d'une personnalité juridique. Cela bouscule la notion de ce qu'est l'humain. On voit en ce moment se propager une dérive consistant à dire que l'on recopie l'humain sur une machine – à laquelle, ensuite, on donnerait des droits ? Mais c'est une vaste fumisterie, puisque ce sont des humains qui créent ces objets ! On ne peut pas penser que la machine est elle-même capable de se créer : c'est une ineptie scientifique, cela n'existe pas. C'est une confusion de langage de dire que « la machine apprend toute seule ». Elle « apprend toute seule » parce que l'homme a créé l'algorithme et parce qu'il a donné des étiquettes ou des récompenses pour apprendre, ou des manières d'apprendre par similarité avec des mesures de différenciation de formes. Derrière ces robots, il y a des fonctions mathématiques. Arrêtons donc de penser que la machine fait toute seule, alors qu'elle fait grâce à des êtres humains. Et si une part de liberté liée à l'imprévisibilité permet d'atteindre d'autres sommets de performance, ce n'est pas en raison d'une part consciente, intentionnelle de la machine.

En conséquence, à mon avis, la responsabilité doit être une coresponsabilité entre les concepteurs, qui peuvent être un ensemble, et les utilisateurs si la machine apprend en continu – car l'utilisateur a alors une influence, à l'instar du maître d'un chien qui peut le former à mordre. J'ajoute que pour doter les robots d'une personnalité juridique, il faudrait mettre une somme d'argent sur la « tête » de chacune de ces machines ; seuls pourront le faire de grands groupes ; cela signifie que cela tue toute intention de créer des machines peut-être très intéressantes dans des start-up. Enfin, sur le plan juridique, dès lors que la machine serait considérée comme responsable, irait-on voir plus loin ? Forcément, si elle a créé quelque chose qui n'était pas souhaitable et provoqué des dommages, il est nécessaire de modifier son codage, selon les modalités que j'ai décrites. Je suis donc favorable à une régulation souple, intelligente, résultant de l'observation des usages.

Il ne faut pas nier le fait que la robotique peut avoir un intérêt, et l'humain est fondamental pour évaluer, créer, nourrir ces machines de données choisies, de qualité, non discriminantes, loyales, équitables, pour éviter des injustices évidentes – par exemple ne reconnaître que les personnes à peau blanche, comme on l'a constaté sur certaines plateformes, ou discriminer les femmes par rapport aux hommes pour certains types de travail, ce que l'on a vu aussi. Nous, scientifiques, pouvons apporter des outils à cette fin, et montrer des mauvaises pratiques. Souvent, les industriels, parce qu'ils s'intéressent en premier lieu aux retombées économiques, n'ont pas pris le temps de considérer les retombée sociétales de leurs inventions. Or, il est urgent de prendre aussi en considération cet aspect-là.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.