11 interventions trouvées.
Le présent article porte sur l'utilisation des traitements algorithmiques des données par l'intelligence artificielle dans le cadre de la relation entre le patient et le professionnel de santé. C'est la première fois, il faut le souligner, que la loi bioéthique intègre des dispositions relatives à l'intelligence artificielle. Nous devons nous en réjouir, cette technologie étant porteuse d'espoirs au profit de la santé de nos concitoyens. L'article vise à privilégier l'humain et à faire en sorte que les professi...
Comme vient de l'indiquer notre collègue Mme Hennion, l'expression « traitement algorithmique de données » semble insuffisant, monsieur le secrétaire d'État. En effet, l'intelligence artificielle n'a plus nécessairement besoin d'algorithmes ; elle se développe parfois au moyen des réseaux neuronaux. Il convient donc d'élargir le champ en accolant à cette expression les termes « ou assimilé », ce que je propose par cet amendement d'appel – je suis certain que Mme Hennion le votera elle aussi. Cela permettrait de confirmer, dans le compte rendu de nos débats, que vous avez une interprétatio...
Votre amendement, si je le comprends bien, me semble déjà satisfait par le texte de l'article 11, l'expression « traitement algorithmique de données massives » étant suffisamment large pour inclure les différentes techniques d'intelligence artificielle. De fait, sont visées par la présente rédaction non seulement les techniques actuelles mais aussi les techniques à venir ayant un lien avec le traitement algorithmique. En outre, le terme « assimilé » que vous proposez me semble trop flou pour répondre à l'exigence de clarté de la loi. J'émets un avis défavorable.
...que le précédent, mais d'une autre manière : je propose de supprimer le terme « massives ». En effet, les données traitées par les algorithmes ne sont pas toujours massives. C'est particulièrement vrai dans le domaine de la santé où, lorsque les données sont de bonne qualité, on essaie d'en utiliser une quantité restreinte pour réaliser les traitements algorithmiques ou les calculs d'intelligence artificielle. La suppression de ce terme permettrait d'élargir le champ des techniques d'intelligence artificielle couvert par l'article. N'oublions pas que cette loi a vocation à rester applicable pendant plusieurs années, alors que ces technologies progressent de plus en plus vite. Dans les avis nos 129 et 130 du CCNE, l'expression « données massives » est effectivement utilisée, notamment dans le titre d...
L'adjectif « massives », qui vous pose problème, n'est que la transcription exacte de l'adjectif utilisé par le CCNE. Nous souhaitons respecter cette définition, qui semble inclure toutes les formes d'intelligence artificielle. J'émets un avis défavorable.
Vos propos, monsieur le secrétaire d'État, montrent bien que l'article 11 manque de clarté. Comme le souligne la Commission nationale de l'informatique et des libertés – CNIL – dans son avis sur ce projet de loi, il est difficile de distinguer ce qui relève de la phase amont, période d'apprentissage de l'intelligence artificielle – lequel peut être réalisé, dans le domaine de la santé, à partir de jeux de données restreints si celles-ci sont de très bonne qualité – et ce qui est fait en aval pour le patient. J'y reviendrai par la suite en défendant d'autres amendements, l'article n'étant pas toujours clair à cet égard. En tout cas, je maintiens mon amendement.
Il s'agit d'un amendement de précision qui permettrait de rendre l'article 11 conforme au RGPD, le règlement général sur la protection des données. Celui-ci dispose en effet que les personnes dont les données sont soumises à des traitements informatiques ou à l'intelligence artificielle doivent en être informées en amont. Or cela n'est pas clairement indiqué dans l'article.
Il est défavorable, car il faut tenir compte des pratiques médicales : le praticien qui remet les résultats au patient n'est pas forcément celui qui a eu recours au dispositif d'intelligence artificielle en amont.
Vous êtes en train de nous dire que vous n'appliquez pas le RGPD, que ce projet de loi entre en contradiction avec un autre texte. Je ne comprends pas pourquoi on ne pourrait pas expliquer à l'avance à un patient que, pendant son parcours médical, il subira des examens et que les médecins recourront éventuellement à l'intelligence artificielle pour choisir un traitement. C'est une simple information. Vous parlez de transparence. Or une telle information est plutôt de nature à mettre le patient en confiance ; l'absence d'information, au contraire, peut susciter des questions.
...ettre en oeuvre un traitement ». Quel est le sens de la rédaction actuelle ? Si les paramètres sont techniques, ce n'est pas le médecin qui pourra les modifier. Il doit, pour sa part, saisir des données relatives au patient, donc personnelles, puis confirmer ou rectifier l'interprétation apportée par le système d'aide à la décision. Tel est, me semble-t-il, l'objectif du recours à l'intelligence artificielle. Je vous serais reconnaissante de me fournir des explications. Je suis disposée, le cas échéant, à retirer mon amendement. Mes amendements précédents ont été rejetés, mais il conviendrait selon moi de revoir la rédaction de l'article 11 à la faveur de la navette parlementaire, afin de le rendre plus compréhensible et plus aisément interprétable par les praticiens.
Je retire l'amendement, mais je continue à penser qu'il faut développer un peu plus les choses dans l'article, parce que l'intelligence artificielle permet de traiter bien d'autres cas que celui que vous venez d'exposer. En outre, les éléments que vous avez cités comme exemples de paramètres, comme le poids ou d'autres caractéristiques du patient, sont bien des données personnelles, de caractère médical qui plus est. Dès lors, elles doivent être traitées de manière spécifique. Par ailleurs, pour utiliser un outil de traitement des données, i...