Je voudrais dépasser le débat sur la « personne » robot. Lorsque je l'ai lancé au niveau mondial, il est clair que le terme « personne » ne renvoyait pas à l'humain ; les robots ne sont pas des humains-moins, ce ne sont pas des objets-plus, ce ne sont pas davantage des animaux, encore moins des enfants. Oublions donc le mot ; il s'imposera par la pratique, parce qu'il est simple.
Regardons ce que cela signifie exactement en matière de responsabilité. Une société qui entre dans un choc d'intelligence artificielle est une société qui va déterminer un régime démocratique de la responsabilité artificielle.
Aujourd'hui, le taux d'erreur d'une voiture autonome est de 10-9, le même qu'en matière d'aviation. Chaque civilisation déterminera le niveau de risque acceptable. Il s'agit d'un autre schéma : faire au mieux pour l'intérêt de l'humanité, avec un minimum de risques, mais en se déplaçant vers cette notion de mieux. Dans le monde de demain, c'est ce concept qui différenciera les sociétés ou les nations.
Les lois de demain renverront à des référentiels, et ces référentiels seront d'autant plus serrés que l'on placera la vie humaine au-dessus d'autres avantages. Il semblerait que l'accident de la voiture Uber soit dû au fait que le véhicule a été réglé de telle manière que l'on prenait un risque : on freinait moins pour maximiser le confort. J'use de beaucoup de précautions, mais il semble bien qu'il s'agisse d'un problème de réglage de ce « thermostat de la responsabilité ».
Il faut donc placer le niveau de responsabilité technologique au plus haut. L'intérêt est que cela devient calculable. On peut le répéter, l'enfermer dans une enveloppe de potentialités. N'oublions pas que nous sommes en présence d'un cerveau artificiel primitif, parce qu'il y a apprentissage, expérience et mutation.
Le schéma de responsabilités que je voudrais vous proposer fixe la règle démocratique du taux d'erreur acceptable. Il faut sortir l'intelligence artificielle, les algorithmes, les data des dispositifs médicaux, mais réintroduire tout de suite, comme vous l'avez dit, un système de certification, de labellisation, de telle manière que l'on augmente le taux de confiance. Les responsabilités sont en cascade : responsabilité de la plateforme d'intelligence artificielle – c'est-à-dire des algorithmes – responsabilité des données, responsabilité de l'utilisateur. J'appelle votre attention sur le fait que l'utilisateur a un rôle à jouer, dans sa capacité à permettre cet apprentissage.
Pour développer la confiance, il faut non pas confronter le robot à l'humain, mais confronter le robot à la qualité de ses diagnostics, notamment médicaux. C'est quelque chose de mesurable. J'appelle de mes voeux la création d'une Agence de l'intelligence artificielle – un tribunal de l'intelligence artificielle – comme cela existe en matière d'énergie nucléaire, avec une procédure spécialisée. En construisant, au moins de manière expérimentale, une responsabilité juridique de l'intelligence artificielle, on créera la confiance et l'acceptabilité nécessaires, car le monde de demain sera un monde guidé par l'intelligence artificielle.