J'ai deux questions à vous poser. La première porte sur les événements de Christchurch. La deuxième s'adresse plus particulièrement à M. Tabaka.
Mais, avant de les poser, j'aimerais revenir sur les propos de M. Battesti, même si le rapporteur l'a déjà fait. D'abord, c'est faire peu de cas de la compétence et de la perspicacité de cette commission d'enquête que de croire qu'elle ne serait pas capable de déterminer si les personnes qu'elle convoque courent un risque en s'exprimant devant elle. Nous aurons, au terme de cette commission d'enquête, auditionné plusieurs dizaines de personnes, parmi lesquelles des chercheurs, des universitaires, des hauts fonctionnaires, venant pour l'essentiel du ministère de l'intérieur, et des représentants d'associations. Un nombre infinitésimal d'entre elles a obtenu un huis clos, essentiellement les personnes qui travaillent dans les renseignements, pour des raisons que chacun comprendra. Il n'y a aucune raison qu'une exception soit faite pour les plateformes, d'autant plus que la discussion que nous menons depuis bientôt une heure et demie montre qu'une conversation publique peut tout à fait être constructive et apporter des éléments à la commission d'enquête.
Je rappelle qu'une commission d'enquête a d'abord pour but, après l'identification d'un dysfonctionnement ou d'un problème, d'apporter des solutions, et tel sera bien l'objet du rapport qui sera réalisé à l'issue de celle-ci. Mais elle a aussi pour objet de permettre aux organisations, aux structures et aux acteurs impliqués dans le dysfonctionnement de venir s'expliquer publiquement. Je lis sur votre chevalet, monsieur Battesti, que vous êtes responsable des affaires publiques de Facebook France. Si vous ne souhaitez pas être la face publique de Facebook et si vous refusez de donner des explications sur la façon dont vous gérez ce genre de problème, vous n'êtes peut-être pas au bon endroit.
Enfin, vous avez dit tout à l'heure que nous ne devions pas nous inquiéter et que vous feriez votre travail. Nous ne nous inquiétons pas, monsieur Battesti. En effet, vous n'êtes pas ici selon votre bon vouloir, mais parce que la loi vous y contraint et que vous avez été convoqué par la commission d'enquête. Pour rappel, si vous aviez refusé de comparaître, vous auriez encouru une peine de deux ans de prison et de 7 500 euros d'amende. Ce rappel étant fait, je vous remercie, ainsi que vos collègues, pour les éléments d'explication que vous nous avez fournis.
Ma première question concerne Christchurch, dont il a déjà été question. Je rappellerai quelques chiffres : la vidéo de l'attentat a duré dix-sept minutes, elle a été visionnée 200 fois en direct sans signalement, puis 4 000 fois jusqu'à la fin du live. J'ai bien lu le communiqué publié par Facebook en Nouvelle-Zélande après ce massacre, qui a fait cinquante morts : vous avez annoncé avoir supprimé 1,5 million de copies de la vidéo du terroriste en 24 heures. Mais la vidéo a été dupliquée, recopiée et diffusée sur d'autres plateformes après sa suppression sur Facebook. Non seulement personne ne l'a signalée, mais des gens ont continué de la diffuser sur d'autres plateformes, ce qui pose la question de la responsabilité des citoyens, et ce qui confirme qu'un effort d'éducation est absolument nécessaire.
Vous avez dit tout à l'heure que le signalement est, aujourd'hui, le moyen privilégié de la détection. Or on voit bien que l'on ne plus s'appuyer uniquement sur le signalement des utilisateurs, puisqu'un terroriste peut aujourd'hui diffuser sans aucune difficulté, et en direct, le meurtre de cinquante personnes pendant dix-sept minutes. Vous avez évoqué les outils de l'intelligence artificielle. Pouvez-vous nous dire, même si j'imagine que vous en êtes encore au stade de la recherche et du développement, comment vous envisagez d'aller au-delà du signalement, qui a clairement montré ses limites ?
Ma deuxième question s'adresse à M. Tabaka et concerne la plateforme de signalement PHAROS. Vous avez expliqué qu'il existait des différences d'appréciation d'un pays à l'autre, liées à des différences culturelles. Ce n'est pas le cas, dites-vous, des contenus terroristes et pédopornographiques, pour lesquels nous avons été informés que les plateformes apportent une réponse satisfaisante : les vidéos de l'État islamique, par exemple, sont immédiatement suspendues, avant même qu'une ou deux personnes les aient vues. La liberté d'expression, en revanche, n'a pas la même définition en France et aux États-Unis : nous n'avons pas la même perception que les Américains de ce que l'on peut dire ou non, des insultes que l'on peut proférer et, d'une manière générale, de que l'on appelle le hate speech. La liberté d'expression est envisagée d'une manière beaucoup plus large aux États-Unis. En tant que directeur des relations institutionnelles de Google France, comment travaillez-vous sur ces questions, sachant que nous avons, en France, une compréhension plus restrictive de la liberté d'expression ?