Plus particulièrement en ce qui concerne l'intelligence artificielle et le machine learning, les algorithmes ne sont pas auditables, ce qui constitue une difficulté. Aujourd'hui, toute une partie de l'intelligence artificielle n'est pas explicable. La seule manière de vérifier s'il existe des biais est de tester. L'action doit être menée de ce côté-là. Dans certains cas pouvant donner lieu à des discriminations telles que le recrutement, les entreprises devraient être obligées de tester leurs algorithmes ou de les faire tester par des organismes indépendants. Une telle mesure signifie tout de même une progression significative de la justice, de l'État et des organismes de certification. Très souvent, le niveau de complexité déployée, notamment par les grandes entreprises américaines du numérique, est extrêmement élevé.
Concernant les bases de données, je ne suis pas forcément favorable à leur requalification. Par exemple, si l'on réunit dans une base de données l'ensemble des progressions ayant eu lieu dans une grande entreprise française, il est probable que l'algorithme soit influencé par des biais masculins. Cette influence doit être détectée et corrigée. En revanche, je ne crois pas que pour corriger l'algorithme, il faille modifier la base de données. Je ne pense pas qu'il faille corriger, dans la base de données de Wikipédia, le fait qu'historiquement, davantage d'hommes ont été connus car les femmes étaient brimées. Plutôt que corriger l'histoire, nous devrions nous assurer que la vision biaisée de l'histoire ne perdure pas. Je suis plus favorable à la correction des conséquences qu'à la correction des bases de données.
Par ailleurs, au sujet de la violence et du harcèlement, j'aimerais vraiment que nous distinguions ce qui est public sur les réseaux sociaux et ce qui est privé. Pour les publications publiques, il est impératif d'augmenter les contraintes qui pèsent sur les plateformes en termes de modération. Pour la haine en ligne, cette idée est au cœur de ce que nous avons voté en première lecture sur le projet de loi relatif aux principes républicains. Cette idée est également au cœur du Digital Services Act, présenté par l'Europe et très soutenu par la France. Pour toutes les publications publiques, les plateformes doivent être capables de modérer les contenus.
Néanmoins, nous devons veiller à définir clairement ce que nous appelons réseau social. Je crains que nous ne puissions pas agir pour les boucles WhatsApp, par exemple, hormis en augmentant le niveau de prévenance des parents, des éducateurs et des adultes autour. En effet, nous n'allons pas mettre toutes les boucles privées sous surveillance de l'État afin de lire ce que les adolescents s'envoient. Nous basculerions dans une autre société si nous considérions qu'il faut surveiller toutes les conversations privées. L'unique manière d'agir est la prévention et la sensibilisation des parents et éducateurs, souvent extrêmement démunis car les enfants utilisent mieux le téléphone portable qu'eux. Nous devons être prudents.
Dans le cas de la jeune Alisha, j'ai cru comprendre que son ex petit-ami a publié des photos d'elle dénudée sur Snapchat. Ce type de publication est interdit. La modération de Snapchat doit agir. Ce même petit-ami est vraisemblablement accusé de l'avoir tuée, sans que les réseaux sociaux occupent a priori un rôle direct dans ce drame.
Lorsque la publication de photos intimes cause le suicide de la victime, le rôle des réseaux sociaux est direct.