Monsieur le rapporteur, j'estime qu'on ne peut pas en vouloir à une entreprise de se soucier de la sécurité de ses salariés. Elle ne l'a pas fait d'une manière irrespectueuse ou désobligeante vis-à-vis de l'Assemblée nationale.
Je suis fier d'occuper la fonction qui est la mienne, n'en doutez pas. Je m'exprime régulièrement dans la presse sur ces sujets. C'est simplement l'association étroite entre ma personne et ce type de groupuscules qui me préoccupait. Je suis là aujourd'hui : ne vous inquiétez pas, je vais faire mon travail.
Pour ce qui est du 17 mars, il faut mettre les choses en perspective. Les technologies évoluent : on a commencé par donner la capacité à tout le monde d'écrire du texte, ensuite de publier des photos sur les réseaux sociaux puis des vidéos. Les technologies de diffusion en direct sur les plateformes ont été développées il y a quelques années. Elles sont utilisées massivement de manière positive, que cela soit par des partis politiques, des citoyens qui défendent des causes ou des principes démocratiques comme nous pouvons le voir en ce moment en Algérie. Malheureusement, il y a des assassins et des meurtriers qui utilisent aussi cette possibilité pour diffuser des vidéos de leurs actes effroyables, comme cela a été le cas en Nouvelle-Zélande. Notre responsabilité est d'éviter ces usages, ce qui représente un énorme défi : sur 3 milliards d'utilisateurs, cela revient à chercher une aiguille dans une botte de foin. Il y a quelques années, trouver une vidéo de ce type aurait pu prendre une heure ou deux heures et ce délai a été réduit à dix-sept minutes. Nous sommes une entreprise de 30 000 personnes et nous avons réagi à une crise en dix-sept minutes, mais je ne suis pas là pour nous tresser une quelconque couronne de lauriers : dix-sept minutes dans ce type de situation, c'est bien trop long, et même une minute, trente secondes, voire une seconde, c'est beaucoup trop long. Tout est fait pour réduire ce délai. Un jour, nous arriverons, je l'espère, à beaucoup moins.
Dès que ce contenu a été identifié, il a été évidemment retiré. Le compte a été supprimé et l'empreinte qui a été prise a permis de retirer 1,5 million de vidéos dans les vingt-quatre heures qui ont suivi – et là se pose la question de l'équilibre mental des personnes qui partagent ce type de vidéos sur les réseaux sociaux, ce qui nous dépasse complètement en tant qu'entreprise. Nous sommes aussi là pour agir et je ne me défausse pas de nos responsabilités dans ce dossier. Sachez toutefois qu'en l'état actuel de l'art, il aurait été difficile de faire mieux mais c'est notre responsabilité de faire mieux.
Je lierai dans une seule réponse la NetzDG allemande – Netzwerkdurchsetzungsgesetz – et la proposition de loi de Laetitia Avia. Nous interprétons la loi allemande comme un signal politique envoyé par le gouvernement de ce pays qui était, il faut l'avouer, peut-être nécessaire, compte tenu du contexte. Les décisions prises par l'Allemagne pour faire face à la crise des migrations en Europe ont en effet suscité de fortes réactions de rejet à l'intérieur du pays. Nous ne discutons pas le principe même de la régulation en ce domaine. Simplement, nous nous interrogeons sur la manière dont elle a été mise en oeuvre. Laisser aux plateformes le soin de décider si un contenu est illégal ou pas pose énormément de problèmes. Définir ce qui est illégal n'a parfois rien d'évident. Il suffit de regarder la jurisprudence de la dix-septième chambre du tribunal de grande instance de Paris pour voir à quel point cette matière est complexe et combien elle évolue.
Il faut savoir que les signalements que nous recevons en Allemagne au titre de la NetzDG concernent, dans la grande majorité des cas, non pas des contenus de haine mais de diffamation de tel ou tel restaurant qui se plaint d'avoir été mal noté sur internet ou critiqué sur Facebook. Je tiens ces données à votre disposition si jamais vous ne me croyez pas sur parole.
La proposition de loi Avia entend, quant à elle, créer une chaîne de régulation. Il ne s'agit pas de réagir au coup par coup sur chaque morceau de contenu en laissant la plateforme un petit peu toute seule. Les autorités publiques définiront une obligation de moyens : elles préciseront quels résultats elles attendent de nous et regarderont quelles règles et outils nous mettons en place pour y parvenir ; si nous n'obtenons pas les résultats visés et si nous ne nous montrons pas coopératifs, alors elles décideront d'une sanction. Mon interprétation de la première version de la proposition de loi, c'est qu'elle établit un lien entre une plateforme et un régulateur, le Conseil supérieur de l'audiovisuel (CSA) – on pourrait discuter du choix de ce régulateur –, qui sera chargé d'évaluer les outils que les plateformes ont mis en place et d'en discuter avec elles. Cela me semble être un schéma plus efficace que celui de la loi allemande, car les plateformes ne seront pas livrées à elles-mêmes pour prendre des décisions au sujet des cas compliqués. C'est finalement l'autorité publique qui a la légitimité juridique et politique de décider ce qui est légal ou pas dans un pays.