Madame la présidente, monsieur le rapporteur, mesdames et messieurs les députés, merci de nous accueillir. Twitter a pour mission de servir la conversation publique, ce qui signifie que nous sommes guidés par un principe essentiel, nous assurer que toutes les voix peuvent être entendues. Notre plateforme doit permettre à chacun de se sentir en sécurité pour participer à cette conversation, sans être réduit au silence par des voix qui visent à promouvoir la violence ou les comportements haineux. Notre priorité est de renforcer l'ouverture, la civilité et la sérénité de la conversation, donc de promouvoir un environnement propice au débat démocratique.
Dans cette optique, nous avons mis en place une politique ferme et claire : les groupes identifiés qui se livrent ou incitent à la violence sur notre plateforme, mais aussi hors ligne, n'ont pas leur place sur Twitter. Connaissant les conséquences de l'action de ces groupes hors ligne, notamment sur la sécurité des personnes, nous interdisons notre service aux groupes extrémistes violents et aux individus qui s'en revendiquent.
Ces groupes, selon la définition que nous en donnons, sont identifiés, et utilisent la violence pour promouvoir leur cause, qu'elle soit politique, religieuse ou sociale. Les critères que nous retenons sont cumulatifs : le fait que ces groupes s'identifient eux-mêmes comme des groupes extrémistes dans leurs objectifs, leurs publications ou encore leurs actions ; le fait qu'ils utilisent ou ont utilisé la violence pour faire avancer leur cause et qu'ils promeuvent les actions violentes ; le fait que leurs actes de violence ciblent des civils.
Garantir la sécurité et la sérénité de la conversation est l'objectif numéro un de notre entreprise. Pour y parvenir, nous agissons avec urgence. Nous avons déjà introduit plus de 70 changements dans nos politiques, nos opérations et nos produits. J'insisterai sur les évolutions liées aux défis auxquels nous devons faire face en France.
Les règles de Twitter en matière de comportement haineux sont strictes : elles interdisent expressément les attaques, les menaces et l'incitation à la violence fondée sur la race, l'origine ethnique, la nationalité, l'orientation sexuelle, le sexe, l'identité sexuelle, l'appartenance religieuse, l'âge, le handicap ou toute maladie grave.
Ces règles ont été étayées au cours des années pour répondre aux préoccupations de la société civile. Il est essentiel qu'elles évoluent en permanence pour s'adapter aux changements de l'environnement dans lequel elles s'appliquent. Ainsi, depuis peu, elles prévoient l'interdiction des imageries et des symboles haineux dans les images et les bannières de profil.
Nous avons créé en 2016 un conseil de la sécurité et de la confiance – The Twitter Trust and Safety Council –, constitué d'experts associatifs et de chercheurs, qui échangent régulièrement avec la société civile au sujet des règles que nous souhaitons mettre en place et des évolutions de produits que nous souhaitons lancer. Parmi les membres de ce conseil figurent deux associations françaises, dont la Ligue internationale contre le racisme et l'antisémitisme (LICRA) et l'assocation e-enfance.
Ces dix-huit derniers mois, nous avons renforcé nos investissements dans la technologie et les outils pour faciliter l'identification des comportements violents et abusifs à grande échelle et limiter leur propagation sur notre plateforme. C'est un élément clé de notre politique en matière de sérénité, et je le répète, la priorité absolue de notre entreprise en 2019.
Les améliorations de l'apprentissage automatique, le machine learning, nous permettent de réduire la charge du signalement qui pèse sur les victimes. Notre processus repose sur la conjonction de l'automatisation et de la revue humaine, qui demeure indispensable. Nous avons élargi notre approche pour appréhender les comportements des utilisateurs et non plus seulement les contenus qu'ils produisent sur la plateforme.
Nous avons ainsi introduit l'analyse des signaux comportementaux des utilisateurs : le fait, par exemple, qu'un utilisateur soit systématiquement bloqué en retour des mentions qu'il fait d'autres utilisateurs est le signal fort d'un comportement qui nuit à la conversation. En mettant l'accent sur les comportements et en utilisant une approche technologique proactive, nous pouvons désormais nous attaquer rapidement aux comptes problématiques à plus grande échelle, tout en réduisant la charge qui pèse sur les utilisateurs victimes. Cette dimension est essentielle car nos travaux montrent que moins de 1 % des comptes représente la majorité des comptes signalés pour abus, donc des comportements nuisibles. Cette démarche porte ses fruits : aujourd'hui, nous agissons sur dix fois plus de comptes abusifs qu'à la même époque l'année dernière.
Mais les signalements des utilisateurs restent très importants pour nous, et il est essentiel d'y répondre au mieux, au plus vite et de la manière la plus transparente possible. En adhérant au code de conduite de l'Union européenne visant à combattre les discours de haine illégaux en ligne, Twitter s'est engagé à évaluer la majorité des notifications des utilisateurs dans un délai de 24 heures, à respecter la législation européenne et nationale sur les discours de haine illégaux et à retirer le cas échéant les messages jugés illégaux. Avec les autres signataires, nous sommes convenus de poursuivre nos efforts en matière de transparence et d'information des utilisateurs sur les actions menées. La dernière évaluation du code, qui remonte à février, a montré les progrès effectués par Twitter dans ce domaine : nous sommes parvenus à évaluer les notifications en moins de 24 heures dans 88,3 % des cas.
Nous avons apporté au produit une modification qui a un impact réel sur la sérénité de la conversation et le bien-être des utilisateurs. Cette nouvelle fonctionnalité permet à l'utilisateur qui signale un contenu de le masquer pour lui-même, que ce contenu soit illégal ou non, et supprimé ou non après évaluation.
Depuis plus de quatre ans, nous travaillons sans relâche avec la société civile, en nous appuyant sur l'expertise notamment du Conseil représentatif des institutions juives de France (CRIF), de la LICRA, ou encore du Défenseur des droits.
Twitter entretient aussi de solides relations avec les forces de l'ordre française, s'agissant notamment des contenus qui violent la loi française. J'ai personnellement participé à la mise en place du protocole « Cazeneuve » il y a quatre ans. Twitter est un membre très actif du groupe de contact permanent mis en place par le ministère de l'intérieur, dont l'objet est de faciliter la coopération entre les plateformes et les forces de l'ordre. Nous délivrons des formations et un portail en ligne, dédié aux forces de l'ordre et au Gouvernement, permet aux autorités de signaler à Twitter les contenus illégaux, mais aussi de formuler les demandes de divulgation de données en urgence, c'est-à-dire sans réquisition.
Conformément à notre objectif d'améliorer la sérénité de la conversation, nous poursuivons sur cette lancée. Nous le faisons de manière transparente et ouverte, en tenant compte de la complexité de ces questions. Nous sommes une plateforme publique, où des personnes du monde entier se réunissent pour échanger librement et ouvertement ; l'environnement doit être serein et digne de leur confiance, il doit garantir leur liberté d'expression et le débat démocratique.