Intervention de Serge Uzan

Réunion du jeudi 29 août 2019 à 11h30
Commission spéciale chargée d'examiner le projet de loi relatif à la bioéthique

Serge Uzan, vice-président du Conseil national de l'Ordre des médecins :

Il n'y a donc plus de pathologie qui induit ces actes.

Le second point est que beaucoup disent qu'il n'y a pas de pathologie à la source de ces des situations difficiles. C'est un peu délicat, mais, nous allons avoir à nous poser ces questions très honnêtement. Je ne crois pas qu'il appartienne à l'Ordre de répondre à ces questions sociétales. Ce n'est pas pour me défausser, mais les questions et les situations que vous avez évoquées sont des questions de société ne relevant pas vraiment de notre champ de compétences. En plus, vous imaginez que l'avis de plus de 200 000 médecins sur la question ne va pas être facile à recueillir de façon cohérente.

J'ai évoqué l'idée de stratifier les données non identifiantes et cela pourrait être une solution. Nous avons été gênés que l'on dise qu'un médecin serait capable de donner une information cohérente à un patient sur un algorithme, avant de lui demander le consentement de l'utiliser. La plupart des algorithmes sont totalement inaccessibles aux médecins, pour deux raisons : soit par leur complexité constitutionnelle, soit par le fait que l'algorithme a fait l'objet d'un brevet et qu'il est protégé. C'est pour cela que nous utilisons parfois le terme de « boîte noire ». Il est d'ailleurs étonnant que nous utilisions le même terme de « boîte noire » pour, d'une part, expliquer que nous ne comprenons rien à l'algorithme et, d'autre part, comprendre ce qui s'est passé dans un accident d'avion. Il y a une petite incohérence qui montre bien que parfois, nous n'utilisons pas les bons termes. Un médecin ne comprend d'ailleurs pas forcément comment fonctionne le médicament qu'il donne. Il faudra donc l'équivalent d'une labellisation ou d'une certification des algorithmes. C'est un domaine que je connais bien : j'utilise assez couramment des algorithmes, mais je ne peux pas savoir comment et à quel moment cela va fonctionner.

J'appartiens à un groupe qui réfléchit sur ce que l'on appelle les biais algorithmiques. Ils sont extrêmement fréquents. Parfois, nous n'avons aucune explication. Une société anglaise basée à Cambridge nous a produit un algorithme de calcul de risque de cancer. Il y avait un biais, selon que nous rentrions les données du côté père ou du côté mère, alors que c'était la même famille. C'était clairement un problème de biais algorithmique mécanique, à l'intérieur de l'algorithme, de la même façon qu'il peut y avoir une panne dans un système électronique. Il y a même des sociétés qui ont proposé que l'on qualifie les algorithmes de personnalités électroniques. Nous en reparlerons peut-être.

Souvent, le médecin ne sait pas ce qu'il y a dans l'algorithme et il ne sait pas l'expliquer ; il faut d'emblée proposer une procédure qui nous rassure sur l'utilisation ou non d'un algorithme. Par exemple, la Food and Drug Administration (FDA) vient de labelliser un algorithme d'analyse automatique de la rétinopathie chez les diabétiques. Le médecin qui va l'utiliser le fera comme il utilise un médicament.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.