Intervention de Alain Bensoussan

Réunion du mercredi 6 juin 2018 à 11h00
Commission des affaires sociales

Alain Bensoussan, avocat, président de l'Association du droit des robots :

Mon intervention concerne le cadre juridique de l'intelligence artificielle dans le domaine de la santé. Il me paraît important de souligner d'emblée qu'il y a une spécificité en la matière. On pourrait donc se placer soit dans un cadre général, soit dans celui d'une réglementation particulière.

De quoi parle-t-on au juste ? Un robot physique est une coque dotée de moyens mécatroniques et de capteurs. La révolution actuelle concerne davantage les capteurs que les technologies de l'intelligence artificielle, qui remontent aux années 1970. Un robot logiciel est un précipité d'algorithmes, lesquels sont des suites d'instructions finies qui permettent d'atteindre un résultat sans avoir à le démontrer. Le superbe rapport de Cédric Villani, que je salue, comporte une typologie des algorithmes qui donne une vision très précise de ce que l'on appelle « l'intelligence faible ».

Je vous propose de réfléchir à un cadre juridique pour cette intelligence artificielle faible, qui est celle d'aujourd'hui, mais aussi d'essayer d'envisager la question de l'intelligence artificielle moyenne. L'intelligence artificielle dite faible est à l'heure actuelle supérieure à l'humain pour la plupart des opérations, et elle comporte des applications spécifiques dans le domaine de la santé, notamment en neurologie et en dermatologie. Pour une finalité donnée, qui peut aller du jeu de go à l'urologie, les robots physiques comportant un robot logiciel intégré sont supérieurs à l'humain.

J'aborderai successivement trois thèmes : les algorithmes et la santé ; les robots et la santé ; les données et la santé.

En ce qui concerne le premier point, je pense qu'il y a trois règles à prendre en compte sur le plan juridique. En tant que praticien de l'intelligence artificielle, qui s'inscrit dans le droit « mou », je les applique déjà.

La première règle est le droit, pour l'individu, de savoir s'il est en face d'un robot ou d'un humain. Ce droit à la connaissance est un élément déterminant en matière de transparence. L'intelligence artificielle est en train de se disséminer dans l'ensemble des hôpitaux et des cliniques, mais aussi des usines et des entreprises, ainsi qu'à l'intérieur des domiciles.

Un autre élément déterminant est le droit à l'erreur. Le système actuel de responsabilité n'est pas applicable. Dans un cas de leucémie, Watson, qui est un système développé par IBM, a proposé au Japon une solution que le corps médical ne parvenait pas à trouver. Un robot logiciel est supérieur à l'humain pour certains cancers. Laurent Alexandre a ainsi montré que le système se trompe une fois sur dix, contre une fois sur deux pour les médecins. Si l'erreur robotique est inférieure à l'erreur humaine, le droit conçu pour cette dernière ne peut pas s'appliquer : on ne doit plus se trouver dans un régime de responsabilité pour faute, mais sans faute. Il faut abandonner la distinction entre l'obligation de moyens et l'obligation de résultat, car cela n'a guère de sens : il doit s'agir d'une responsabilité pour dommages subis. Cela revient à généraliser la loi Badinter à l'ensemble de l'intelligence artificielle.

Le troisième droit fondamental est le droit à la certification. Les algorithmes dont nous parlons sont auto-apprenants. Des systèmes installés dans des cliniques ou des hôpitaux différents vont muter et ils n'auront donc pas le même comportement face à de nouveaux patients. La certification obligatoire permettrait d'avoir une présomption d'irresponsabilité. Comme en matière de presse, il faut un système en cascade – le robot, puis le concepteur de la plateforme d'intelligence artificielle et ensuite l'ensemble des éléments habituels – le fournisseur, le vendeur et tout ce que prévoit la directive « machines », laquelle est à mon avis totalement inapplicable. Dans le cadre d'un système de certification, la plateforme d'intelligence artificielle verrait sa responsabilité dégagée en termes d'approche fautive.

J'en viens à la question des robots et de la santé. J'ai lancé l'idée, dans le cadre du débat mondial qui s'est engagé, que les robots ont un droit à la souveraineté et qu'ils doivent être reconnus juridiquement. J'ai eu l'occasion de faire une présentation plus détaillée devant le Parlement, et je pense avoir convaincu différentes personnalités dans le monde… Si tous les humains sont des personnes, toutes les personnes ne sont pas humaines. Le concept de personne a évolué, notamment en ce qui concerne les personnes morales, mais il y a aussi une reconnaissance de la personne « fleuve » dans le domaine de la climatologie, et la personne « montagne » a aussi été reconnue. La personne, au sens de la personnalité juridique, n'est qu'un système : ce n'est qu'une marmite, un vecteur, un mot-valise. Pourquoi a-t-on affaire ici aussi à des personnes ? Parce que les systèmes sont apprenants, autonomes et mutants. Les personnes humaines sont libres, et l'on a créé des droits et des obligations pour elles, dans le cadre d'une personnalité juridique générale. Les personnes morales sont libres aussi, et l'on a créé une personnalité juridique particulière, au moyen d'une adaptation. Osons reconnaître que les personnes robots ont une personnalité juridique singulière en matière de responsabilité, de dignité, de traçabilité et de décision en dernier ressort.

Je vous propose trois droits. Le premier est un droit en matière d'intimité numérique, qui n'existe pas, à l'heure actuelle, au-delà du droit à la vie privée. Je crois que le rapport entre le patient et le robot est de même nature que celui avec le médecin. Il faut aussi créer un droit à la transparence, qui va avec la liberté de choix. Je pense qu'on doit être en mesure de s'opposer à être traité, analysé ou diagnostiqué par un robot, mais il faut savoir quelles conséquences cela implique. Enfin, on doit avoir une traçabilité de ce que fait le robot, afin de pouvoir comprendre, corriger si nécessaire, et peut-être sanctionner.

En ce qui concerne les données, il faut reconnaître, de manière radicale, que le monde de demain a besoin de l'intelligence artificielle. Dans le domaine de la santé, le progrès viendra de l'open data. Je crois que nous devons aller vers une ouverture généralisée des données de santé, sur la base d'un consentement libre et éclairé. Il y a des gens qui donnent leur sang, et ils ont bien raison de le faire car les besoins sont importants, mais il en existe peut-être aussi qui, comme votre serviteur, sont prêts à partager leurs données. Il faut une protection de la vie privée et de l'intimité, mais les données de santé sont nécessaires pour le développement des algorithmes, qui prendront alors de la puissance.

L'ouverture des données de santé correspond à un intérêt majeur : il faut déverrouiller non pas le secret médical – il n'en est pas question – mais les données liées aux maladies, grâce à un processus de pseudonymisation plutôt que d'anonymisation. Il y a un risque, que la société doit gérer au regard de l'intérêt des nouveaux systèmes.

Dernier élément en ce qui concerne l'open data, les données de santé se retrouvent partout. Il faut que l'individu puisse, à un moment donné, être le musée de ses propres données de santé, ce qui implique de pouvoir les récupérer.

Pour conclure, je voudrais souligner qu'une intelligence artificielle conçue pour être éthique by design est une nécessité dans le domaine de la santé. En l'inscrivant dans le droit, on arrivera peut-être à améliorer l'état de santé de tous, partout dans le monde. Je participe à un projet visant à mettre l'intelligence artificielle au service du monde entier : on peut changer le monde grâce à elle, et on va commencer par l'utiliser pour tous les enfants. Agissons maintenant. Nous avons déjà adopté des droits de l'homme fondamentaux, puis des droits de l'homme numériques, dans le cadre de la loi « informatique et libertés », qui est toujours pertinente, quarante ans plus tard ; créons maintenant les droits de l'homme de l'intelligence artificielle.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.