Madame la présidente, monsieur le rapporteur, mesdames, messieurs les députés, au nom de Google, je vous remercie pour cette invitation. On discute régulièrement dans le débat public du rôle des acteurs de l'Internet, notamment dans la lutte contre les contenus haineux et les différentes formes de violence. Depuis de nombreuses années, Google travaille étroitement avec les autorités françaises, principalement le ministère de l'intérieur, mais aussi la délégation interministérielle à la lutte contre le racisme et l'antisémitisme et la haine anti-LGBT (DILCRAH).
Le principe de fonctionnement de la plateforme d'hébergement de vidéos YouTube est que n'importe quel utilisateur, particulier ou professionnel, peut mettre en ligne une vidéo et la diffuser auprès d'un large public. Un certain nombre de règles, destinées à lutter contre les contenus haineux, ont été mises en oeuvre. Ces « règles de la communauté » sont destinées à encadrer l'usage qui peut être fait de la plateforme. Elles prohibent et interdisent très clairement la mise en ligne de tout contenu haineux, violent ou faisant appel à la violence, qui incite à commettre des actes violents contre des individus ou des groupes d'individus. L'idée n'est pas uniquement de supprimer des vidéos mises en ligne par des groupes terroristes reconnus ou inscrits sur une liste noire, mais de viser toute forme d'incitation à la violence, de contenu haineux ou violent et de harcèlement.
Lorsque nous prenons connaissance d'un tel contenu, nous pouvons agir de façon graduée. Nous pouvons décider que la vidéo ne pourra être vue que par les personnes inscrites sur la plateforme – YouTube étant une plateforme ouverte, n'importe qui peut consulter une vidéo sans avoir créé de compte. Réduire l'accès aux personnes inscrites permet notamment de s'assurer que la vidéo ne sera vue que par des personnes majeures. Ensuite, nous pouvons placer un message d'avertissement « interstitiel », alertant sur le caractère potentiellement choquant ou violent de la vidéo – il nous arrive de le faire notamment sur des vidéos émises par des médias contenant des images choquantes. Enfin, nous pouvons décider de procéder au retrait de la vidéo, lorsqu'elle apparaît comme étant en infraction avec les règles de la communauté. Ce retrait peut s'accompagner d'une pénalité, nos règles prévoyant que le compte à l'origine de la vidéo est sanctionné après plusieurs pénalités. Nous pouvons aussi décider d'agir directement sur le compte de l'utilisateur et de le supprimer, avec les vidéos qui y sont associées. Cette gradation nous permet de traiter des contenus « gris », qui ne sont pas en infraction avec la loi mais atteignent un certain niveau de violence.
Quelles techniques utilisons-nous pour détecter les contenus et procéder à leur suppression éventuelle ? Nous publions chaque trimestre un rapport de « transparence », destiné à fournir à la communauté et aux autorités un certain nombre d'éléments chiffrés. Le rapport portant sur la première partie de l'année 2019 est en cours de finalisation et je vous transmettrai les chiffres prochainement. Nous savons que sur la période allant d'octobre à décembre 2018, 8,7 millions de vidéos ont été supprimées dans le monde. Elles portaient atteinte à l'une des règles de la communauté, dont celles relatives à la nudité et aux pratiques commerciales frauduleuses – spams notamment. Pour les mêmes raisons, 261 millions de commentaires ont été supprimés et 2,3 millions de chaînes bloquées.
Parmi ces 8,7 millions de vidéos, 50 000 ont été supprimées parce qu'elles portaient atteinte à la règle interdisant l'incitation à la haine et l'extrémisme violent et 19 000 parce qu'elles portaient atteinte à la règle interdisant les contenus offensants ou haineux. Ce sont des chiffres mondiaux et je ferai en sorte de vous transmettre les données concernant la France.
Une grande majorité de ces vidéos – 70 % – ont été ramenées vers les équipes de modération par des outils qui sont des outils techniques, des interfaces automatisées. Ce sont environ 10 000 personnes qui travaillent à la modération des contenus. En plus de ces outils techniques nous permettant d'identifier des contenus potentiellement en violation avec les règles de la communauté, nous avons mis en place depuis une dizaine d'années le programme Trusted Flaggers, qui nous permet de bénéficier de l'expertise des spécialistes dans chacun des pays. Vous le savez, les réglementations nationales en matière de contenus haineux ne sont pas les mêmes selon les pays, et l'approche et l'interprétation des messages peuvent différer selon la culture. N'étant pas en capacité d'appréhender cette dimension dans chacun des 150 pays où l'entreprise est présente, nous avons besoin de cette connaissance du terrain. Dans le cadre du programme Trusted Flagger, nous travaillons étroitement avec les autorités françaises et les associations de lutte contre le racisme et l'antisémitisme. Ce programme leur permet de notifier des contenus grâce à des outils spécifiques, et de le faire pour plusieurs vidéos en une seule fois. De notre côté, cela nous permet de disposer d'un canal prioritaire d'analyse : les vidéos qui nous parviennent par ce biais sont analysées par nos équipes en priorité. Sur la période allant d'octobre à décembre 2018, ces acteurs ont notifié 2 millions de contenus.
En France, nous travaillons étroitement avec le ministère de l'intérieur, en particulier la plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements (PHAROS), qui est Trusted Flagger et nous notifie régulièrement des contenus, au même titre que la DILCRAH, ce qui nous permet de bénéficier d'une information qualifiée provenant des autorités. Nous avons le même type de programme dans d'autres pays européens et Europol est également Trusted Flagger. Des associations comme la LICRA nous notifient également par ce biais des contenus. Ce programme nous permet d'alimenter et d'améliorer nos outils de détection. YouTube est également membre de l'association Point de contact, qui réunit la majeure partie des grands acteurs du numérique. Point de contact permet de concentrer les notifications d'utilisateurs, de les retraiter et de les transformer en notifications qualifiées.
Nous participons aussi au travail mené au niveau européen, dans le cadre du code de conduite visant à combattre les discours de haine illégaux en ligne mis en place en 2016 par la Commission européenne. YouTube, Facebook, Twitter mais également DailyMotion, Snapchat, Microsoft participent à ces réunions régulières avec la Commission européenne. Un système de testing a été mis en place pour évaluer la robustesse de nos outils. Ils notifient des contenus et traquent ce qu'il advient de ces notifications, afin de vérifier que nos outils répondent aux objectifs de l'Union et des États membres. Selon les chiffres du dernier exercice de monitoring, publiés en février et portant sur la fin de l'année 2018, YouTube a revu plus de 80 % des contenus signalés sous 24 heures et a retiré plus de 85 % des contenus haineux signalés.
De manière plus informelle, nous participons à l'expérimentation entre Facebook et le Gouvernement français. L'équipe qui a été constituée nous consulte, ainsi que d'autres acteurs du numérique, pour alimenter la réflexion, notamment dans la perspective de la proposition de loi relative à la lutte contre la haine en ligne et du projet de loi sur l'audiovisuel.
Le moteur de recherche Google est l'une des facettes les plus connues de notre métier. L'une des dimensions de la lutte contre les groupuscules d'extrême droite est une disposition de la loi du 13 novembre 2014 qui permet, par la voie judiciaire, de déréférencer un certain nombre de sites, notamment ceux faisant l'apologie du terrorisme ou de la haine. Ainsi, nous avons reçu l'injonction judiciaire de procéder au déréférencement de Démocratie participative, cas sur lequel vous aurez peut-être des questions à nous poser.
Nous participons au groupe de travail mis en place par Bernard Cazeneuve à la suite des attentats de 2015, qui inclut des interlocuteurs publics, dont certains dépendent directement du ministère de l'intérieur. L'objet du groupe de travail, qui était à l'origine le terrorisme, est en train d'évoluer pour s'étendre aux contenus haineux. Il s'est révélé très utile car, pour la première fois, les acteurs du numérique et les acteurs publics se sont réunis autour d'une même table et ont pu partager aussi bien les retours d'expériences que les attentes de chacun, dans une approche multiservices. Jusque-là les relations avec le ministère de l'intérieur, PHAROS, la direction générale de la sécurité intérieure (DGSI) et l'unité de coordination de la lutte antiterroriste (UCLAT) étaient plutôt bilatérales. La France a été précurseur dans ce domaine puisqu'un groupe de travail européen a été constitué par la suite. Cette démarche porte ses fruits et nous offre l'opportunité de récupérer de la matière pour alimenter nos outils.
Comment identifier les auteurs de ces contenus haineux ? Google, pour l'ensemble de ses produits, a répondu au cours de l'année précédente à 11 000 réquisitions judiciaires émises par les autorités françaises. La France est l'un des pays qui nous demande de dévoiler le plus d'informations. Je vous communiquerai les chiffres, qui devraient arriver dans les tout prochains jours. Nous sommes aujourd'hui en capacité de répondre très rapidement sur ces contenus et nous accompagnons les autorités françaises. Les États-Unis et les autorités, aussi bien européennes que françaises, sont en négociation pour améliorer la transmission de ces données. Un projet de règlement européen, dit « E-evidence », a été proposé à la suite de l'adoption par les Etats-Unis du Clarifying Lawful Overseas Use of Data Act, dit Cloud Act, texte destiné à gérer la possibilité d'accords bilatéraux entre la France et les États-Unis, pour une transmission plus rapide des informations. Cela a permis aux autorités françaises d'accéder à des informations liées à 11 000 utilisateurs.