C'était un plaisir d'écouter ces différentes contributions, qui m'ont replongé dans les nombreux débats auxquels j'ai participé dans le cadre du rapport au Gouvernement sur l'intelligence artificielle, que j'ai coordonné. Les trois interventions que nous venons d'entendre s'inscrivent parfaitement dans le cadre de ces débats mais aussi de notre analyse et de nos recommandations.
Je voudrais revenir, très rapidement, sur un certain nombre de points, en insistant tout d'abord sur le fait que l'intelligence artificielle n'a pas de définition précise, ce qui est bien embêtant si l'on veut travailler sur des dispositions législatives spéciales. Il s'agit de toute solution algorithmique servant à effectuer une tâche avec précision et efficacité – cela peut consister, par exemple, à reconnaître une pathologie ou à suggérer un diagnostic. L'intelligence artificielle est extrêmement efficace et elle s'invite dans tous les domaines. C'est un sujet multifacettes.
J'insiste toujours sur trois mots-clés lorsque je présente mon rapport. Le premier est l'expérience. Il est important de développer et d'améliorer les outils d'intelligence artificielle par l'expérimentation. C'est là-dessus qu'il y a actuellement les batailles les plus âpres au niveau international : chacun veut avoir les meilleurs chercheurs et les meilleurs appareils pour réaliser des expérimentations. Le deuxième mot-clé est la souveraineté : la question de l'intelligence artificielle est liée au contrôle de soi-même et de la société, ainsi qu'à la capacité à influer sur l'avenir, dans un contexte de plus en plus concurrentiel. Le troisième mot-clé est le partage. Comme plusieurs intervenants l'ont très bien dit, c'est dans le partage des données, qu'il soit ouvert ou non, dans la façon de mettre ensemble les données et de chercher les corrélations que se trouve bien souvent la valeur ajoutée. C'est une solidarité nouvelle, à côté d'autres formes plus classiques telles que le partage de temps ou le partage du risque dans les démarches mutualistes.
Parmi les enjeux qui nous concernent directement, dans la perspective de la révision de la loi de bioéthique, il importe de ne pas se tromper d'adversaire quand il est question de l'intelligence artificielle. On pourrait limiter les expérimentations afin d'éviter des situations éthiquement difficiles mais, ce faisant, on empêcherait le développement de solutions efficaces, qui pourraient, dans certains cas, sauver des vies. Il importe donc de faire des expérimentations tout en les encadrant.
Nous avons besoin de théoriciens de l'algorithmique, mais aussi et surtout de données et de matériel. Il faut des données bien annotées et sûres, comme l'a dit M. Lucas, et l'on ne saurait trop insister sur ce point. Un autre sujet majeur est de savoir qui partage ses données avec qui, ce qui est souvent la question la plus difficile.
Chaque problème d'intelligence artificielle comporte trois défis : le défi scientifique et technologique, le défi éthique et juridique, et le défi de la confiance – c'est-à-dire « qui travaille avec qui ? », et « qui s'ouvre à qui ? » En pratique, presque toutes nos auditions ont montré que l'on surestime les défis scientifiques et technologiques, alors que l'on sous-estime le défi du partage. Il faut prendre en compte cette dimension dès lors que l'on s'intéresse à l'évolution de l'éthique ou du droit.
Le deuxième axe, après celui de la recherche, concerne l'efficacité. À quels problèmes cherche-t-on à appliquer l'intelligence artificielle ? À des problèmes qui nécessitent de prendre en compte beaucoup de paramètres et d'aboutir à une solution souple, évolutive et personnalisée. La santé est un cas d'école : elle dépend d'un nombre de paramètres considérable, les mécanismes sont souvent mal élucidés, la situation se personnalise en fonction de la pathologie et du médecin, et il y a des évolutions liées aux connaissances, à l'état de santé du médecin et à la culture. Le fait que l'on se focalise à chaque fois sur des tâches précises, dans un contexte donné, est un élément important pour ne pas se méprendre sur ce qu'est l'intelligence artificielle.
La question de l'ouverture des données a été évoquée, en particulier par Alain Bensoussan. Il y a un lien avec de nombreux sujets, comme celui de la confidentialité des données. Aux États-Unis, où des expériences ont pu être faites, une universitaire, Latanya Sweeney, s'est rendue célèbre en montrant qu'il était possible de réidentifier certains dossiers particuliers au sein de données anonymisées et ouvertes à des fins de recherche. Elle a publié un article expliquant comment on pouvait réidentifier le dossier du gouverneur du Massachusetts parmi des données prétendument anonymes. Ce genre de démonstration nous interroge sur ce qui est possible et ce qui doit être autorisé.
En matière d'éthique, la première question est bien sûr celle du respect de la vie privée. Nous avons récemment eu l'occasion de débattre du règlement général sur la protection des données (RGPD). En matière de responsabilité, l'intelligence artificielle se caractérise par le recours à des bases de données importantes, afin de guider l'action par l'exemple. Mais qui dit base de données, dit multiplicité d'ingrédients dans le produit, donc dilution des responsabilités, ce qui peut conduire à des difficultés pour établir la chaîne de responsabilité. Il y a aussi des difficultés en matière de propriété intellectuelle et de traçabilité des décisions.
De manière générale, on peut avoir du mal à anticiper les problèmes qui vont se poser. Une référence en la matière est l'ouvrage de l'universitaire américaine Cathy O'Neil, Weapons of Math Destruction, qui fait état de toutes sortes d'utilisations de l'intelligence artificielle posant problème du point de vue éthique – pas forcément sur le plan des grands principes, mais parce que l'utilisation, très efficace, de certains algorithmes peut conduire à des pratiques inacceptables, comme des manipulations – on a vu les débats qui ont eu lieu après certaines élections –, ou à des organisations humaines inacceptables, par exemple en termes de conditions de travail. Quand on regarde les usages de l'intelligence artificielle, il ne faut pas se limiter à des cas déterminés par avance : il faut laisser une marge d'évolution par rapport à la société et aux usages.
Mon rapport recommande de créer un comité d'éthique ad hoc, spécialisé, en parallèle de celui qui existe actuellement. Ce comité d'éthique se saisirait de toutes sortes de questions d'éthique et d'intelligence artificielle, afin de conseiller le Gouvernement et de répondre aux questions du Parlement et de la société en général. Il y aurait bien sûr une coordination avec l'actuel comité d'éthique, voire une possibilité de saisine conjointe. Une autre option, que nous n'avons pas recommandée mais qui est envisageable, serait que l'actuel comité d'éthique étende ses compétences au-delà des sujets de bioéthique. Il reviendra au professeur Delfraissy de formuler des recommandations dans le cadre de son rapport.
Une grande partie des enjeux concernant l'intelligence artificielle sont liés à la connaissance de notre propre humanité et à ce que nous voulons ou acceptons en tant que société, par rapport à notre identité. Ce sujet a été évoqué tout à l'heure lorsque M. Loiseau a insisté sur la question de l'homme « augmenté ». Très souvent, les questions que nous nous posons au sujet de l'intelligence artificielle nous renvoient en fait à nous-mêmes. Notre rapport avec certains assistants affectifs, par exemple, interroge beaucoup. Quand un assistant est explicitement conçu pour combler un vide affectif, pour prendre la place d'une compagne ou d'un compagnon absent, pour susciter une réponse que l'on aurait envie de faire à un humain, on peut se demander s'il n'y a pas une sorte de fraude à l'humanité. Alain Bensoussan a insisté sur l'importance de savoir si ce que l'on a en face de soi est un algorithme ou un humain. Même quand on sait qu'il s'agit d'un algorithme, on peut être tenté de le considérer comme un humain et de dévier peu à peu de notre humanité. À mesure que les usages se multiplieront, on pourra être amené à se demander ce que nous acceptons ou non, en tant que société, dans l'imitation de l'humanité par l'algorithmique, en ne perdant pas de vue que le but est de servir l'humain en rendant les pratiques beaucoup plus efficaces dans de nombreux domaines.