– Examen de la proposition de loi visant à lutter contre la haine sur internet (n° 1785) (Mme Laetitia Avia, rapporteure) 2
– Informations relatives à la Commission 48
La réunion débute à 9 heures 35.
Présidence de Mme Yaël Braun-Pivet, présidente.
La Commission examine la proposition de loi visant à lutter contre la haine sur internet (n° 1785) (Mme Laetitia Avia, rapporteure)
Nous sommes réunis pour examiner la proposition de loi visant à lutter contre la haine sur internet, déposée par Mme Laetitia Avia, qui en est la rapporteure.
La prolifération de contenus haineux sur internet est un phénomène que nous ne pouvons ignorer, car il nous touche tous. Que ce soit en tant que victimes ou en tant que témoins, nous y avons tous été confrontés à des propos offensants et agressifs.
Lorsqu'ils s'inscrivent dans un débat d'idées et dans les contours de notre liberté d'expression, pilier de nos valeurs démocratiques, ces propos peuvent être dérangeants, sans pour autant être illégaux, mais, lorsqu'ils franchissent les lignes rouges de notre liberté d'expression, qu'ils viennent nous frapper en plein coeur, non pas pour ce que nous disons ou pensons, mais pour ce que nous sommes – noirs, arabes, chinois, juifs, musulmans, homosexuels, handicapés, ou tout simplement femmes –, lorsqu'ils atteignent le coeur de la dignité humaine, ces propos illicites, qui ne sont rien d'autre que la manifestation de la haine la plus abjecte, ne sauraient prospérer impunément.
Tel est l'objet de cette proposition de loi.
Bien entendu, il s'agit non pas d'éradiquer la haine dans notre société mais de l'empêcher de proliférer là où elle s'exprime sans retenue, dans le parfait déni du respect de l'autre, et s'expose à la vue de tous, c'est-à-dire sur internet, en particulier sur les réseaux sociaux. C'est le premier lieu d'expression de la haine aujourd'hui, et nous ne manquons pas d'exemples. Il y a eu, bien sûr, les attentats de Christchurch, qui ont donné lieu à une prise de conscience collective et internationale, mais n'oublions pas tous les actes de haine ordinaire et gratuite, qui font le quotidien des réseaux sociaux – je peux en témoigner. Le dernier rapport de SOS Homophobie est édifiant : 23 % des agressions homophobes ont lieu sur internet – c'est le premier lieu d'expression de la haine. Et, il y a quelques mois, la société de modération Netino sonnait également l'alerte, en relevant une augmentation de 30 % des contenus haineux en un an. Surtout, va-t-on encore longtemps détourner le regard des phénomènes de cyberharcèlement et de cyberviolences qui poussent les plus jeunes et les plus vulnérables à vouloir commettre l'irréparable pour ne plus subir ce torrent de haine ?
Internet est censé être un lieu d'opportunités, d'ouverture, d'échanges, mais cela peut devenir un enfer pour ceux qui ne correspondent pas aux standards fixés par une minorité de « trolls » ou de haters. Certains nous diront : « Vous n'avez qu'à quitter les réseaux sociaux ! » Ce serait limiter la liberté d'expression des victimes de propos haineux. Et je crois que chaque fois que quelqu'un quitte les réseaux sociaux en raison de la haine qu'il y subit, c'est notre liberté d'expression collective qui est mise à mal. On nous dira aussi : « Ce n'est pas grave, c'est internet, ce n'est pas la vraie vie ! » Mais nos usages d'internet font partie intégrante de notre vie, et il nous faut affirmer que nous ne pouvons plus tolérer sur internet ce que nous n'accepterions jamais dans un bus, dans un restaurant, dans l'espace public. Nous avons la responsabilité de tracer ces lignes rouges, et, en somme, d'écrire une nouvelle page d'internet.
Reposant essentiellement sur la loi du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN), qui transposait une directive de 2000, la directive « e-commerce », notre cadre juridique n'est plus adapté : tout cela était avant Facebook, Twitter, Snapchat, les stories, les lives, les hashtags… avant tout. Ce régime repose sur une dichotomie obsolète entre des éditeurs, à forte responsabilité, et les hébergeurs, régime sous lequel sont placées toutes les plateformes que nous connaissons aujourd'hui et qui ne sont jamais inquiétées. Et si les objectifs de la directive « e-commerce » restent d'actualité, elle n'a jamais visé à mettre en place un système permettant la libre circulation de la haine via les services de communication en ligne. Il est donc de notre devoir de ne plus laisser ce secteur en proie à une autorégulation qui s'essouffle et d'assumer pleinement qu'il est de notre mission de protéger nos concitoyens et de décider de l'héritage que nous laisserons. Pour ma part, je souhaite que cet héritage soit un internet vertueux.
Pour ce faire, j'ai travaillé, depuis maintenant plus d'un an, avec Gil Taieb, vice-président du Conseil représentatif des institutions juives de France (CRIF), et l'écrivain Karim Amellal pour trouver des solutions concrètes. Nos propositions ont été remises au Premier ministre le 20 septembre 2018. Dans le cadre de cette mission, nous avons rencontré de nombreux acteurs du numérique, institutions, associations de lutte contre les discriminations, dont je tiens ici à saluer le travail. Ces auditions ont été réitérées par votre rapporteure après le dépôt de la proposition de loi. Le dispositif que nous vous soumettons aujourd'hui a donc été bien pesé, il est opérationnel.
Consciente de l'importance des enjeux, j'ai souhaité que le Conseil d'État rende un avis sur cette proposition de loi, et je remercie les rapporteurs Thierry Tuot et Paul-François Schira pour leur accompagnement précieux dans la finalisation du texte qui vous est proposé aujourd'hui. Cet avis, rendu à l'unanimité des membres de l'assemblée générale du Conseil d'État, vient soutenir les objectifs de la proposition de loi, consolider ses dispositifs et ainsi veiller au succès du combat dans lequel nous nous engageons. J'ai déposé plusieurs amendements visant à mettre en oeuvre les recommandations du Conseil d'État.
Le texte que nous vous proposons repose sur une disposition clef, qui est son coeur : une obligation de retrait des contenus manifestement illicites en vingt-quatre heures. Ses poumons sont des obligations de moyens, qui viennent assurer la vitalité et l'efficacité de cette obligation de retrait.
Ainsi, à l'article 1er, nous proposons d'ajouter un article à la LCEN pour créer un nouveau délit de non-retrait de contenus manifestement illicites en vingt-quatre heures, applicable aux grandes plateformes et moteurs de recherche, comme le préconise le Conseil d'état. C'est une obligation qui s'applique après le signalement de contenus manifestement illicites, c'est-à-dire d'incitations à la haine ou d'injures à la haine à raison de la race, de la religion, de l'ethnie, du sexe, de l'orientation sexuelle, du handicap. Je sais que vos amendements viendront compléter ce champ d'application, dans le respect total de l'avis du Conseil d'État, qui le limite à l'atteinte à la dignité humaine telle qu'elle ressort de la LCEN actuelle.
À l'article 1er, nous intégrerons une partie des dispositions qui figuraient à l'origine à l'article 2, relatives à la simplification des mécanismes de signalement. L'idée est de simplifier l'« expérience utilisateur » lors de la mise en oeuvre de l'obligation de retrait renforcée.
Nous intégrerons ensuite un second chapitre dédié au devoir de coopération des plateformes en ajoutant à la LCEN un nouvel article 6-3. Son objet sera de prévoir : l'obligation de répondre à toute notification ; la mise en place d'un bouton de signalement unique ; l'obligation pour les plateformes d'avoir des moyens humains ou technologiques proportionnés ; un mécanisme de recours interne, initialement prévu à l'article 1er, pour que les utilisateurs puissent alerter les plateformes sur les erreurs d'application de la loi, corriger, contextualiser ou se justifier, et ainsi améliorer le dispositif ; des obligations d'information des utilisateurs sur leurs droits ; une obligation de transparence vis-à-vis du Conseil supérieur de l'audiovisuel (CSA) quant à l'organisation interne adoptée pour lutter contre la haine sur internet, comme le propose le Conseil d'État ; des obligations de coopération judiciaire renforcées, qui figuraient initialement à l'article 5 de la proposition de loi, pour mieux identifier les auteurs de contenus quand ils commettent un délit.
Nous aborderons ensuite un troisième chapitre, relatif au rôle de supervision du CSA dans la lutte contre les contenus haineux. Il sera chargé d'accompagner les plateformes en émettant des recommandations, lignes directrices et bonnes pratiques pour la mise en oeuvre de ces obligations. Il assurera leur suivi et publiera un bilan de leur application et de leur effectivité. Comme le souligne le Conseil d'État : « La crédibilité de la régulation administrative confiée au CSA repose sur un pouvoir de sanction ». Celui-ci s'appliquera à tout manquement au devoir de coopération édicté par cette proposition de loi. Je vous présenterai un amendement détaillant l'ensemble de la procédure de sanction, de son ouverture jusqu'au prononcé éventuel d'une amende administrative, dont le montant pourra atteindre 4 % du chiffre d'affaires mondial de l'opérateur, en passant par la mise en demeure.
Enfin, dans un quatrième chapitre, nous améliorerons les dispositifs judiciaires de lutte contre les sites à caractères haineux et leurs sites miroirs. Nous parlons ici de sites tels que le bien trop célèbre « Démocratie participative » dont le nom est aux antipodes de la haine crasse qu'il véhicule. Comme le propose le Conseil d'État, l'intervention du juge en amont et en aval sera précisée dans le texte.
Voici le schéma que nous vous proposons pour lutter contre la propagation des discours de haine sur internet. Il repose sur trois piliers : une responsabilisation des plateformes, largement assurée par ce texte ; une responsabilisation des auteurs de contenus illicites, qui nécessitera une amélioration de la réponse pénale, notamment avec la création d'un parquet spécialisé, mais je vous propose d'aborder cela surtout en séance, en présence de la ministre de la Justice ; une responsabilisation de la société tout entière, car chacun doit être sensibilisé aux enjeux dont nous débattons aujourd'hui.
Mes chers collègues je sais que nos débats seront denses, j'espère surtout qu'ils seront riches et à la hauteur du combat qui transcende largement nos diverses étiquettes et sensibilités, car il nous unit dans cette mission ultime qu'est la protection de la dignité de la personne humaine face à toutes les formes de haine.
Madame la rapporteure, mes chers collègues, une étude conduite en 2019 par la société de modération Netino sur la haine en ligne estimait, à partir d'un échantillon de commentaires publiés sur vingt-quatre pages Facebook de grands médias français, que 14 % de ces commentaires comportaient des propos haineux ou agressifs. Cela témoigne d'une évolution inquiétante que le législateur doit prendre à sa juste mesure.
C'est tout l'objet de la proposition de loi qui vous est aujourd'hui soumise par notre collègue Laetitia Avia, dont la commission des Affaires culturelles et de l'éducation a souhaité se saisir pour avis. Elle tend à pallier l'impunité quasi-totale dans laquelle évoluent aujourd'hui les auteurs de tels propos sur les plateformes, dont le zèle à combattre les contenus haineux est pour l'heure limité à ce que la loi française rend obligatoire. Dont acte : la proposition de loi rendra obligatoire leur retrait en vingt-quatre heures ! Il est grand temps d'établir une législation efficace pour assurer le respect, par des plateformes virtuelles, de lois conçues pour le monde réel. Se retranchant systématiquement derrière leur statut d'hébergeur, les moteurs de recherche, les réseaux sociaux, les plateformes de partage de contenus mis en ligne par leurs utilisateurs doivent aujourd'hui combattre de façon plus volontaire l'hydre numérique qu'ils ont contribué à créer, car c'est bien leur modèle économique, fondé sur l'exploitation algorithmique de nos données, qui nourrit l'enfermement intellectuel et, partant, l'intolérance croissante aux opinions contraires. Et c'est l'impunité totale des auteurs anonymes de propos haineux sur internet qui favorise leur expression exponentielle mais également leur banalisation dans la vie réelle.
C'est la raison pour laquelle cette proposition de loi comporte plusieurs mesures tendant à renforcer substantiellement les obligations à la charge des opérateurs de plateforme. Ils auront notamment à répondre au CSA, dont les missions sont complétées pour lui permettre d'exercer un contrôle fin de l'action des plateformes en matière de lutte contre la haine en ligne. C'est à ce titre que la commission des Affaires culturelles et de l'éducation a souhaité se saisir pour avis. En effet, les missions du CSA ont été récemment modifiées, notamment par la loi du 22 décembre 2018 relative à la manipulation de l'information, et sont appelées à évoluer à la faveur du futur projet de loi sur la régulation audiovisuelle. Il s'agit donc de veiller à la cohérence de l'ensemble normatif existant et futur, afin de donner à la loi sa pleine efficacité.
Ainsi, je vous proposerai, au nom de ma commission, plusieurs amendements précisant les contours des nouvelles missions confiées au CSA et tendant notamment à ce que la sanction qu'il prononce réponde non plus à l'obligation de résultat imposée aux plateformes mais bien à l'obligation de moyens qui leur est faite. Au-delà, la périodicité des différentes dispositions est précisée : le bilan de la loi effectué par le CSA serait annuel, tandis que la remontée d'informations de la part des plateformes serait, elle, mensuelle. Je vous proposerai aussi de permettre au CSA de rendre publiques tout ou partie de ces informations, soit pour dénoncer une plateforme récalcitrante, soit pour valoriser l'efficacité de ses actions. Je souhaite également que les associations reconnues qui oeuvrent aujourd'hui dans le domaine de la lutte contre la haine et les discriminations aient une place de choix auprès du CSA.
Au-delà, c'est bien sûr la compétence de la commission en matière d'éducation et de jeunesse qui justifie sa saisine. J'estime nécessaire de renforcer les outils existants, notamment au sein de l'éducation nationale, pour permettre une prévention adéquate de ces comportements chez les mineurs et assurer leur protection vis-à-vis des contenus haineux auxquels ils sont involontairement, mais de plus en plus fréquemment, exposés. Je vous proposerai ainsi de renforcer les obligations des plateformes qui permettent à des mineurs de moins de quinze ans, âge de la majorité numérique, l'inscription à leurs services. Elles devront obligatoirement sensibiliser les enfants de moins de quinze ans et leurs parents à la diffusion de la haine en ligne et les informer des risques juridiques encourus dans ce domaine. Je crois que c'est là un axe majeur de prévention, car, bien souvent, les parents n'ont qu'une conscience très limitée des risques que leurs enfants encourent dans l'environnement numérique et de la responsabilité juridique qui est aussi la leur en cas d'infraction.
Chers collègues, nous abordons la discussion générale. Les porte-parole des groupes disposent chacun de cinq minutes.
Une incitation à la haine ou une injure à raison de la race, de la religion, de l'ethnie, du sexe, de l'orientation sexuelle ou du handicap ne sont permises ni dans la rue, ni à la télévision, ni à la radio, ni dans la presse. Pourquoi le seraient-elles sur internet ?
Nous examinons aujourd'hui une proposition de loi déposée par notre collègue Laetitia Avia, rapporteure de ce texte. Nous sommes fiers de ce texte dont l'objectif est de protéger la liberté d'expression de tous sur internet. Chaque jour, des femmes, des homosexuels, des personnes de couleur, des juifs, des musulmans ou des personnes handicapées se font insulter sur internet parce qu'ils sont des femmes, des homosexuels, des personnes de couleur, des juifs, des musulmans ou des personnes handicapées. Chaque jour, les auteurs de propos haineux sont de plus en plus nombreux. Et, chaque jour, ils sont de plus en plus odieux.
Nous sommes bien loin des années 2000 où nous pouvions mettre tout ce que nous voulions sur nos « murs » Facebook, sans craindre la malveillance des autres. Chaque jour, les victimes adoptent un ton plus policé, évitent les sujets à risque, modèrent leurs points de vue, jusqu'à se taire. La liberté des uns s'arrête où commence celle des autres, la liberté d'expression aussi, c'est ce qu'affirme cette proposition de loi, c'est ce qu'affirme aussi la loi de 1881 sur la liberté de la presse. Toutefois, il n'est pas question ici de redéfinir ce qu'est une injure ou une incitation à la haine, ce que définit déjà cette grande loi. Qu'elle nécessite une réforme ne fait aucun doute, c'est ce que devra dire la mission lancée par Mme la garde des Sceaux. Quant à nous, et pour l'heure, nous n'y toucherons pas ; cela constitue notre ligne rouge. Il ne serait pas sérieux de réformer la loi sur la liberté de la presse sans une étude approfondie au préalable. Si nous le faisions, les groupes d'opposition pourraient nous reprocher notre impréparation, et ils auraient raison.
En revanche, s'il y a eu un travail sérieux et poussé, c'est bien sur la lutte contre le racisme et l'antisémitisme en ligne, conduit par notre collègue Laetitia Avia en collaboration avec Karim Amellal et Gil Taieb. L'aboutissement de ce travail de près d'un an est le rapport remis au Premier ministre au mois de septembre dernier. C'est le socle de cette proposition de loi. Deux ans après l'Allemagne, mais sans faire de copier-coller de la loi Netzwerkdurchsetzungsgesetz, dite « NetzDG », nous pouvons nous appuyer sur ce rapport et sur l'expérience outre-Rhin pour proposer ce dispositif simple, lisible et que nous voulons efficace.
Le coeur du dispositif – vous le disiez, madame la rapporteure –, c'est l'obligation de retrait sous vingt-quatre heures de tout contenu manifestement illicite et signalé. Cela veut dire que le contenu gris, celui dont on ne sait pas au premier coup d'oeil s'il est illicite, n'est pas visé. Nous visons les contenus manifestement illicites, les propos incitant à la haine ou à l'injure discriminatoire. C'est le coeur du dispositif, car c'est cette obligation de retrait qui pèse sur les grands réseaux sociaux qui va les responsabiliser enfin. Et si l'obligation de vingt-quatre heures est le coeur, le signalement est le poumon. Cette procédure de notification se devait donc d'être accessible et simple : c'est le fameux bouton uniformisé qui se présenterait partout de la même façon pour que, d'un réseau social à un moteur de recherche, on retrouve le même design. C'est ensuite le CSA qui régulera. Il aidera les plateformes internet à lutter contre les contenus haineux. Il vérifiera que tout est mis en oeuvre pour atteindre les objectifs. Le cas échéant, il sanctionnera. L'échelle des sanctions ira de la mise en demeure jusqu'à l'amende de 4 % du chiffre d'affaires annuel mondial des plateformes.
Par ses amendements, le groupe La République en Marche tentera justement de parfaire le dispositif de notification afin de le rendre plus efficace. Nous proposerons notamment que le bouton soit non seulement facile d'accès mais surtout directement accessible depuis le contenu illicite. Parallèlement, nous voulons que le notifiant soit bien informé de ce qu'il encourt en cas de signalement abusif.
Avec cette proposition de loi, le groupe La République en Marche a clairement la volonté qu'internet ne soit plus une zone de non-droit. Le civisme doit y retrouver sa place, il y va de la liberté d'expression et du pluralisme des expressions. Les réseaux sociaux étant devenus le premier vecteur de communication et d'information du XXIe siècle, sans exagération, il pourrait bien aussi y aller de notre démocratie.
Merci, madame la présidente, de m'accueillir une nouvelle fois en commission des Lois.
Chers collègues, sur internet, le meilleur côtoie le pire. Sa gouvernance est une question centrale pour les droits humains. La proposition de loi cible la lutte contre la haine sur internet, réelle préoccupation au coeur de nos sociétés démocratiques. Les Républicains ont toujours pris position contre le cyberharcèlement et la propagation des messages de haine, d'antisémitisme ou de discrimination en tous genres. Aussi souhaitons-nous que cette proposition de loi puisse apporter des solutions nouvelles, d'autant que 70 % de nos compatriotes disent avoir été confrontés à des propos haineux sur les réseaux sociaux. En commission des Affaires culturelles et de l'éducation, nous avons examiné deux articles dont le texte a été significativement bouleversé par rapport au texte initial. Madame la rapporteure, vous venez de dire que vous avez déposé plusieurs amendements ; c'est peu dire car on constate, en y regardant de près, que c'est quasiment l'ensemble du texte qui s'en trouvera réécrit. C'est donc en séance publique que nous déposerons d'éventuels amendements. Par son importance, le sujet mérite une grande attention, d'autant plus qu'il intéresse non seulement les Français mais aussi nos voisins européens, voire le monde entier. Nous devons donc aborder ces discussions avec un grand sens des responsabilités.
Membre de l'assemblée parlementaire du Conseil de l'Europe, j'ai conscience que ce débat doit s'inscrire également dans le cadre du respect des droits de l'homme et du citoyen. Dans une démocratie, les individus et les organisations, quelles qu'elles soient, doivent pouvoir s'exprimer, diffuser des informations, des opinions, par le biais des réseaux sociaux, mais on atteint très vite les limites de la liberté d'expression dans les domaines controversés : avec l'incitation à la violence, voire des comportements criminels, sous la forme de la propagande du terrorisme ou du djihadisme, avec les discours de haine en raison de la race, de la religion du sexe ou du handicap. La diffusion des contenus haineux connaît incontestablement une progression exponentielle en l'absence de contrôle ou de sanctions.
La proposition de loi a donc pour objectif d'apporter des solutions, même si la question de la définition d'un contenu offensant ou illicite n'est pas tranchée. Le CSA va jouer un rôle déterminant en matière de sanctions, mais aura-t-il les moyens d'agir sur internet et dans quel délai ? Le fait qu'il se voie attribuer une mission préventive et pédagogique avec l'établissement de lignes directrices et de bonnes pratiques me semble une bonne chose.
J'ai noté avec satisfaction que les recommandations du Conseil d'État quant à la procédure à suivre par le CSA avant le prononcé d'une sanction pécuniaire à l'encontre des opérateurs qui n'auront pas respecté leurs obligations ont été suivies. La possibilité de rendre publiques les mises en demeure et sanctions est aussi une bonne proposition.
La question du contrôle et des sanctions liées au déréférencement des contenus haineux est évidemment centrale. Malgré une politique affichée d'autorégulation via une armada de vérificateurs et autres modérateurs, la réalité montre que les grands acteurs du numérique sont loin d'être exemplaires. Leur faire porter la responsabilité de supprimer tout contenu illicite dans un délai de vingt-quatre heures est l'objectif majeur de cette proposition de loi.
Il est important que les entreprises du net et les médias sociaux se conforment aux obligations juridiques auxquelles les soumet chaque État en luttant contre la propagation de contenus illicites par le biais des profils de leurs utilisateurs. C'est pourquoi le travail que nous allons réaliser, qui s'inspire lui-même de la Netzwerkdurchsetzungsgesetz, aidera peut-être à son tour d'autres pays confrontés aux mêmes dérives à légiférer.
Je termine par deux réflexions.
Chez les jeunes, le cyberharcèlement peut rapidement dégénérer. En l'absence de cadre juridique, on voit fleurir des initiatives citoyennes, comme le groupe Facebook francophone « Je suis là », inspiré d'un groupe suédois pour lutter collectivement contre la cyber-haine, une sorte d'anti-« Ligue du LOL » – l'exposé des motifs de la proposition de loi évoque d'ailleurs ladite ligue. Ce n'est pas très satisfaisant d'autant plus que certaines attaques haineuses en ligne proviennent de trolls, avec des messages tendancieux et polémiques.
Deuxième réflexion, un rapport en préparation au Conseil de l'Europe, notamment à la suite des révélations du scandale Cambridge Analytica, pourrait recommander aux États membres la création d'un ombudsman de l'internet, sorte de médiateur qui serait compétent pour qualifier de licites ou d'illicites les contenus diffusés sur internet. Ce pourrait être un outil supplémentaire pour compléter les dispositifs de lutte contre les messages de haine sur internet.
Le groupe Les Républicains aborde favorablement l'examen de cette proposition de l'eau.
Je veux tout d'abord saluer Mme la rapporteure et la remercier de son travail. Elle n'a cessé de consulter et d'associer à sa démarche les acteurs du secteur et les citoyens français, notamment à travers l'organisation d'une consultation.
Chacun d'entre nous ici a pu, directement ou indirectement, expérimenter le déferlement quotidien de contenus haineux sur les réseaux sociaux. Sous des dehors parfois désincarnés, les propos diffusés à qui voudra bien les lire sont finalement très concrets – il est important que nous l'ayons à l'esprit avant d'examiner le texte. En définitive, nous sommes aujourd'hui à un tournant. Certes, nous nous attaquons à des objets complexes sur lesquels le législateur a finalement peu de prise mais, comme vous le rappelez, madame la rapporteure, dans votre projet de rapport, il n'y a pas de fatalité en la matière. Je crois qu'il ne faut plus, désormais, masquer les petits renoncements derrière de grandes critiques des nouvelles technologies et des nouveaux modes de communication. Ce texte propose précisément de sortir des ambages habituelles et vient compléter l'arsenal juridique disponible pour les utilisateurs quotidiens de ces plateformes. L'angle adopté est intéressant car il s'agit ici d'envisager les plateformes comme étant des catalyseurs de contenus afin de mieux les réguler en les responsabilisant et en responsabilisant les utilisateurs ; c'est là un point d'équilibre qui garantit la protection de la liberté d'expression et empêche ceux qui voudraient la détourner de ses fondements de s'en prévaloir. Bien sûr, certains éléments appellent des précisions, notamment le champ d'application de la proposition de loi, mais je crois que des amendements apportant les précisions souhaitables ont été déposés.
Je veux tout de même vous interroger, madame la rapporteure, sur plusieurs points. N'est-il pas envisageable de dépasser le critère du seul trafic dans la définition des plateformes visées ? Des plateformes de moindre importance accueillent et permettent elles aussi la diffusion de contenus haineux. Ne pouvait-on pas imaginer de viser l'ensemble de ces plateformes ? Par ailleurs, l'article 1er peut soulever plusieurs questions quant à la définition précise des contenus illicites. Quid de la latitude laissée aux opérateurs dans leur appréciation pour déterminer le caractère manifestement illicite ou non des contenus ? Ne devrait-on pas, à terme, réintroduire le juge judiciaire dans ce processus afin de protéger les utilisateurs ? Enfin, du point de vue de la liberté d'expression, comment gérer les éventuelles censures abusives de la part des opérateurs ? La pression des sanctions et du name and shame va pousser les plateformes à systématiser la censure. C'est aussi toute la question des moyens humains absolument nécessaires à la bonne gestion de la modération des plateformes.
Désireux d'apporter sa pierre à l'édifice, le groupe Mouvement démocrate et apparentés a également déposé des amendements. Ils traduisent notre volonté de renforcer certains éléments du texte, notamment en ce qui concerne la responsabilisation des plateformes. C'est tout le sens des deux amendements qui viennent préciser les informations que les opérateurs devront rendre publiques et transmettre au CSA pour que ce dernier les intègre à son rapport annuel.
Nous avons également choisi d'ouvrir ce texte à d'autres problématiques relatives à l'éducation et à la protection des mineurs. Nous vous proposons, par deux amendements dont notre collègue Laurence Vichnievsky est l'auteure, de permettre aux mineurs recevant des contenus abusifs d'avoir recours, sans autorisation préalable, à un signaleur de confiance et de mettre à leur disposition une protection spécifique. En complément de ces réflexions sur la protection des mineurs, souvent plus exposés aux cyberviolences et plus vulnérables, notre collègue Erwan Balanant suggère de renforcer la prévention autour de la haine sur internet en la faisant entrer dans le champ de la mission d'information sur les violences confiée à tous les établissements du premier et du second degrés.
Ainsi, notre groupe souhaite pleinement s'investir dans le mouvement dessiné par votre proposition de loi, déjà engagé au niveau européen par l'Allemagne. Il est plus que temps de traiter effectivement ce sujet.
Je terminerai en évoquant deux initiatives. Des élèves d'une classe de deuxième année de cours moyen (CM2) ont conçu une proposition de loi très intéressante relative à l'éducation des plus jeunes au numérique dans le cadre de l'édition 2019 du Parlement des enfants, et un entrepreneur suresnois Thomas Fauré a développé un réseau social, Whaller, garantissant le respect de la vie privée des utilisateurs. Nos concitoyens prennent donc le problème à bras-le-corps et répondent avec des initiatives pertinentes. Il est grand temps maintenant que le législateur leur emboîte le pas.
Je ne reviendrai pas sur le fond de ce texte. Toute notre énergie et toute notre intelligence doivent être mobilisées pour repousser des expressions qui relèvent non pas de l'opinion, mais du délit, même du délit insupportable.
Sur la forme, madame la rapporteure, je déplore la méthode. Nous avons découvert vos quarante-trois ou quarante-quatre amendements hier seulement, c'est-à-dire la veille de notre examen en commission, des amendements qui déstructurent totalement le texte et passent par pertes et profits une partie du travail que nous avions déjà fait sur ce texte. Je tenais à vous le dire car je crois que vous devez l'avoir à l'esprit.
Sur le fond, même si ce texte va dans le bon sens – le groupe Socialistes et apparentés soutiendra un certain nombre de dispositions –, légiférer n'est pas tout. Il faudra des moyens financiers et humains extrêmement importants, pour la justice, pour la police, pour l'éducation ; c'est même le coeur du sujet.
Par ailleurs, il est assez étonnant de constater que vous avez laissé de côté, dans le texte initial, la justice de la République, alors qu'il y va des libertés publiques, à valeur constitutionnelle. Les plateformes et les autorités administratives ne sont pas garantes du droit et de la justice. Les sanctions et les divergences d'interprétation que peuvent susciter certains propos appellent absolument l'intervention du juge judiciaire. Je pense que nous avons encore à y travailler, nonobstant les amendements que vous avez pu déposer.
Les grands progrès des nouvelles technologies de l'information et de la communication nous ont fait vivre une révolution et mis de plain-pied dans le XXIe siècle. Les possibilités sont désormais immenses de communiquer et de partager. Malheureusement, pris dans cette effervescence, nous n'avons pas anticipé les dérives et nous subissons aujourd'hui une fuite en avant de cet instrument utilisé à mauvais escient par certains. Pour lutter contre ces contenus illicites qui portent atteinte à la dignité et abusent de la liberté d'expression, nous avons pourtant déjà beaucoup légiféré : en 2004, avec la LCEN ; en 2009, avec la mise en place de la Plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements (PHAROS) ; en 2016, avec la loi pour une République numérique ; en 2018, pour lutter contre le cyberharcèlement. S'ajoutent plusieurs directives européennes.
Force est de constater que les difficultés demeurent, que les discours de haine sont exacerbés et peu sanctionnés. Les attaques en raison des origines, de la religion, du sexe ou de l'orientation sexuelle d'autrui tendent à devenir, sur les réseaux sociaux, une banalité. Le racisme et l'antisémitisme prolifèrent. Les lacunes du cadre législatif sont donc réelles. Dans les faits, peu de plaintes sont déposées, peu d'enquêtes aboutissent, peu de condamnations sont prononcées. Tout se déroule comme si internet était une sphère au sein de laquelle tout peut être dit, vu et montré, la possibilité de l'anonymat ne faisant qu'amplifier la sensation d'une immunité choisie. Le défi que nous, législateurs, devons relever est donc toujours de lutter contre ces contenus.
En ce sens, la proposition de loi de notre collègue Laetitia Avia est bienvenue, mais la tâche est ardue : la liberté d'expression est une liberté fondamentale qui ne saurait être compromise. Il est souvent aisé de faire la différence entre un contenu licite et un contenu illicite, mais, parfois, ce n'est pas le cas. Par conséquent, l'autorité administrative ne doit pas bénéficier de trop grandes marges d'appréciation et les contenus ne peuvent être appréciés uniquement par des algorithmes. De plus, la toile offre une multitude de supports et de viralités exponentielles, alors que les contenus doivent pouvoir être identifiés et retirés rapidement. Nous souscrivons donc aux objectifs visés par cette proposition de loi. De même, les opérateurs doivent être mieux responsabilisés, et les sanctions effectives. Cela semble être également ce à quoi tend ce texte. Enfin, l'articulation avec le droit européen est indispensable dans ce domaine qui ne connaît évidemment pas de frontières.
Ainsi, sur un sujet aussi délicat, la rigueur juridique est de mise afin de s'assurer que les droits de chacun sont respectés. C'est le sens des amendements des membres du groupe UDI et Indépendants, dont je tiens à souligner à quel point ils se sont investis. Nous devons nous saisir de cette proposition de loi visant à lutter contre la haine sur internet pour envoyer un signal fort. C'est dans cet esprit que Philippe Dunoyer a déposé des amendements afin de soumettre tous les opérateurs, moteurs de recherche compris, à des mesures visant à lutter contre les contenus haineux sur internet mais aussi contre les incitations à la violence. Un volet éducation absent de la proposition initiale est également nécessaire. L'un de nos amendements vise donc à mettre en place, comme en Nouvelle-Calédonie, un référent en matière de cyberharcèlement dans les établissements du second degré.
Ces amendements permettront de clarifier ou d'enrichir un texte qui souffre de manques et d'imprécisions. Le Conseil d'État les souligne longuement dans l'avis qu'il a rendu. Les nombreuses auditions ont également mis en avant les problèmes posés par la rédaction actuelle, parfois peu claire ou attentatoire aux libertés. Je crois d'ailleurs que beaucoup d'articles seront modifiés par vos amendements, madame la rapporteure. Je ne peux que m'associer à la remarque de notre collègue sur nos conditions de travail : nous dénonçons chaque fois ces amendements de dernière minute et chaque fois on nous répond que cela s'arrangera, mais chaque fois cela recommence ! C'est quand même très préjudiciable au bon déroulement de nos travaux.
Ainsi, si nous souscrivons aux objectifs visés, nous attendons de voir quel sera le texte issu des travaux de notre commission.
Les amendements déposés par la rapporteure tiennent compte de l'avis du Conseil d'État. Il eût été bien malheureux que nous n'en tenions pas compte. Par ailleurs, ils ont été déposés et diffusés jeudi dernier et non pas hier, contrairement à ce qui a été affirmé. Vous avez donc eu largement le temps d'en prendre connaissance.
Internet est un espace d'expression publique extrêmement important en raison du nombre absolument incroyable de personnes qui s'y expriment et par son caractère, parfois, d'outil d'émancipation et de mobilisation. Nous l'avons vu au cours des dernières années, notamment en Égypte, où il a permis aux citoyennes et aux citoyens de s'organiser. Dernièrement, les mouvements comme #Balancetonporc ou #MeToo ont permis de dénoncer la violence systémique dont les femmes sont victimes.
C'est aussi un lieu d'expression où des personnes, notamment les plus vulnérables, les femmes, les personnes LGBT et les personnes racisées, tout en trouvant parfois, en dehors des canaux habituels, des espaces de discussion et d'émancipation, sont confrontées aux mêmes violences et aux mêmes rapports de force sans les cadres de la loi ou sans que chacun y ait conscience de ses droits et de ses devoirs. Il est donc important d'en débattre.
Malheureusement, le texte proposé, tel qu'il est conçu, expose nos libertés fondamentales à des risques mal mesurés, mal maîtrisés. Il témoigne en outre d'une analyse qui nous semble incomplète, partielle et biaisée des problématiques de discrimination sur internet.
En matière de garanties démocratiques, rappelons que la Convention européenne des droits humains en son article 10 et la Déclaration des droits de l'homme et du citoyen de 1789 en son article 11 protègent la liberté d'opinion et la liberté d'expression qui en découle. La Cour européenne des droits humains exige une prévisibilité et une proportionnalité des blocages, et une protection renforcée de la parole à visée politique et militante. Or le texte actuel ne prévoit pas les garanties nécessaires. Le champ des plateformes visées est bien trop large. Ainsi, La Quadrature du Net souligne que l'exigence de retrait de contenus en moins de vingt-quatre heures fait peser une obligation disproportionnée sur les plateformes non commerciales que beaucoup de personnes consultent, comme Wikipedia, qui n'a pas les moyens de Facebook.
Ce défaut du texte initial est aggravé par l'amendement CL90 de la rapporteure, qui élargit encore le champ des sites concernés aux sites de référencement de contenus proposés ou mis en ligne par des tiers, tandis que l'amendement CL91 substitue à un seuil de nombre de connexions un simple seuil d'activité. Par un autre amendement, elle étend le champ des motifs de blocage possible, sans que des garanties substantielles soient données quant à la possibilité, pour les personnes concernées, de contester un sur-blocage. Ce sont donc maintenant des opérateurs privés qui vont déterminer, sous peine de sanctions pécuniaires, quels contenus relèvent de l'apologie des crimes de guerre, des crimes contre l'humanité, des crimes de réduction en esclavage ou d'exploitation d'une personne réduite en esclavage, des crimes et délits de collaboration avec l'ennemi, des crimes d'atteinte volontaire à la vie ou à l'intégrité physique, d'agressions sexuelles, de vol aggravé, d'extorsion, de destruction, dégradation ou détérioration volontaire dangereuse pour les personnes. Cela me semble tout de même assez discutable. De notre point de vue, cette multiplication des motifs de blocage est une incitation au sur-blocage et une multiplication des possibilités de censure par une plateforme privée à qui des prérogatives sont ainsi déléguées. Rappelons que le pouvoir économique de ces plateformes privées à qui l'on confie un rôle de contrôle de la parole publique est parfois comparable au produit intérieur brut de certains États !
Du point de vue du groupe La France insoumise, il est possible de protéger les victimes tout en garantissant la liberté d'expression, par exemple en limitant le pouvoir des GAFA tout en développant plus d'outils. Nous avions ainsi déposé un amendement sur la question de l'interopérabilité. Il a été jugé irrecevable, mais je crois que ce débat sera rouvert – il est nécessaire.
Par ailleurs, la problématique de la lutte contre les discriminations sur internet n'est pas abordée. Nous considérons que les agressions verbales discriminantes méritent des réponses judiciaires. Il y a un problème en termes de prise en charge et de formation des agents de la justice mais aussi de la police. Ces moyens n'étant pas donnés aux services publics dont la responsabilité est de traiter ce type de situations, cette proposition de loi n'est malheureusement, de notre point de vue, qu'un texte cosmétique, en même temps que dangereux pour la liberté d'expression.
Au sein du groupe de la Gauche démocrate et républicaine, nous étions plutôt favorables à ce texte, mais nous constatons qu'il n'est absolument pas stabilisé, comme en témoigne le nombre d'amendements déposés à la dernière minute. Pour ce qui nous concerne, nous réserverons nos amendements pour la séance publique et je me contenterai de quelques remarques générales.
Ce texte n'est pas fait pour nous faire plaisir et il ne doit pas être redondant par rapport à la législation existante, je pense notamment à la loi sur la liberté de la presse ou à la loi de 2004 pour la confiance dans l'économie numérique. Nous regrettons que l'étude d'impact n'ait pas été plus poussée sur le sujet, ce qui aurait peut-être permis d'éviter un accueil plutôt frais de la part de certaines organisations et institutions : le Conseil d'État, le Conseil national du numérique, le Conseil national des barreaux, des associations et des syndicats. Si votre étude d'impact avait mieux pris en compte toutes leurs observations, elle aurait permis d'éviter ces amendements de dernière minute qui vont faire tomber ceux des parlementaires.
Sur le fond, l'article 1er de la proposition de loi s'inspire beaucoup de la législation allemande qui est en vigueur depuis un an et peut donc faire l'objet d'une première évaluation. En fait, son bilan est assez mitigé. Les observateurs allemands font état de l'excès de zèle que l'on pouvait redouter de la part des plateformes : pour éviter de laisser passer un contenu illicite, elles sont tentées de filtrer très largement au point que 80 % des contenus retirés ne sont finalement pas réellement illicites.
Quelle place ce texte réserve-t-il au juge ? Dans un État de droit, personne n'est mieux placé que le juge pour dire ce qui est légal ou illégal, licite ou illicite. Au cours de cette législature, ce n'est pas la première fois que l'on constate un affaiblissement du pouvoir du juge en la matière. Ce n'est pas un mince problème que cette tentation de transférer au privé, par petites touches, le soin de dire le droit en lieu et place du juge.
Les plateformes, auxquelles vous proposez de donner beaucoup de responsabilités et de pouvoir, prospèrent sur le modèle de l'économie de l'attention. Bien souvent, ce ne sont pas les internautes qui sollicitent et répandent des contenus haineux. En réalité, ce sont les algorithmes de ces géants que sont Twitter ou Facebook qui les propagent. Vous avez sans doute constaté, comme moi, que, par exemple, on vous met sous les yeux les vidéos ou les propos du raciste et antisémite Soral, sans que vous l'ayez demandé. Si vous regardez bien, vous verrez que ce sont les algorithmes qui vous imposent ces vues et non pas les gens qui sont sur les réseaux sociaux. Selon le principe de ces entreprises privées, ces algorithmes déployés cherchent par tous les moyens à générer de l'audience synonyme de valeur. C'est par ce biais que se répandent les propos racistes et haineux, dans cette recherche éperdue de la valeur et du profit. Il ne faut donc pas confier la régulation à ces plateformes qui obéissent à des logiques non fondées sur l'intérêt général.
Nous étions d'emblée plutôt favorables à ce texte mais nous chercherons à l'amender en séance pour qu'il soit plus respectueux de l'État de droit.
Au groupe Libertés et Territoires, nous attendions ce texte avec beaucoup d'impatience car nous estimons qu'il faut légiférer le plus vite possible dans ce domaine. Toutefois, il ne faut pas confondre vitesse et précipitation.
Les amendements de la rapporteure tendent à montrer que le texte n'était pas abouti. Pour être parlementaire depuis 2007, je connais un peu la technique et je lui trouve aussi un inconvénient : ces amendements risquent de faire tomber tous les nôtres et de supprimer le débat. Madame la présidente, nous autoriserez-vous à défendre nos amendements qui risquent de tomber pour que nous puissions au moins en débattre ? Je le demande gentiment, sans polémique aucune. Cela se fait dans toutes les commissions, mais je pose quand même la question.
J'en arrive maintenant à la vraie question : peut-on faire confiance aux plateformes pour effectuer le travail qu'on leur demande ? Au vu d'expériences passées, je ne suis pas sûr que les sanctions prévues les feront trembler. N'aurons-nous pas intérêt à renforcer le pouvoir du juge judiciaire pour que nous puissions créer une sanction réellement efficace contre la diffusion de tels propos ?
Quoi qu'il en soit, nous participerons activement et avec beaucoup d'intérêt au débat sur ce texte.
Certains de vos commentaires portent sur la forme, d'autres sur le fond.
En ce qui concerne la forme, le dernier orateur nous a invités à ne pas confondre vitesse et précipitation, et certains tweets évoquent une impréparation de la rapporteure. Je travaille sur ce texte depuis un an et demi. Je l'ai rédigé. J'assume pleinement le fait de ne pas écrire des lois tous les quatre matins... J'assume pleinement d'avoir travaillé au plus près du Conseil d'État pour faire un texte solide et juridiquement viable qui pourra atteindre son objectif.
J'en viens au dépôt des amendements, sujet soulevé notamment par Mme Obono et M. Saulignac. Un rapporteur peut déposer des amendements jusqu'à la dernière minute. Par respect du Parlement, j'ai fait le choix de les déposer jeudi dernier.
Ils ont été rendus publics ce jour-là. Vous pouviez les sous-amender jusqu'à ce matin. Vous aviez pratiquement une semaine pour appréhender ces écritures et les modifier.
Mme George Pau-Langevin, ici présente, a suivi les auditions avec énormément d'assiduité. Elle peut témoigner du fait qu'à chacune des auditions, je rendais compte des échanges que nous avions avec le Conseil d'État et des évolutions prévisibles du texte, afin que chacun puisse s'y préparer. Je pense avoir fait le maximum possible en la matière. Que l'on appelle cela de l'impréparation, je ne peux que m'en désoler.
Sur le fond, il est important de rappeler un principe de base contenu dans l'article 6 de la LCEN : les plateformes ont d'ores et déjà une obligation de prompt retrait des contenus manifestement illicites. Nous ne créons pas cette obligation mais nous indiquons dans quel délai ce retrait doit être opéré. Le caractère manifestement illicite résulte d'une réserve d'interprétation du Conseil constitutionnel. En combinant ces deux éléments, nous prévoyons que les plateformes devront retirer les contenus manifestement illicites de manière prompte, c'est-à-dire dans un délai de vingt-quatre heures. Nous précisons les conditions d'application de cette obligation bien délimitée dans le temps.
Le juge n'a jamais été exclu du dispositif. Dans la première version du texte, il n'apparaissait peut-être pas de manière suffisamment explicite et claire, ce qui a suscité des débats. Dès les premiers mots pourtant, il était indiqué « sans préjudice des dispositions de l'article 6 de LCEN », lesquelles renvoient à la responsabilité judiciaire. Après réécriture, le juge et le délit sont nettement plus affirmés. C'est le juge qui sanctionne les plateformes pour non-retrait de contenus manifestement illicites.
Nous aurons l'occasion de débattre de la question du seuil de trafic qui a été évoquée.
Quant à la loi allemande, j'assume le fait de l'avoir prise comme point de départ des travaux mais je vous propose un système différent. La loi allemande a un champ d'application très vaste et elle ne sanctionne pas la sur-censure et les retraits excessifs. Cette proposition de loi a un champ extrêmement limité et elle sanctionnera les retraits excessifs.
Comme vous, je pense qu'il est nécessaire de travailler à l'échelle européenne – ce qui implique la création d'un cadre harmonisé – et de développer un volet éducatif. Je serai à votre écoute si vous faites des propositions. Mme Florennes signalait que le thème du Parlement des enfants de cette année était le bon usage du numérique, ce qui me paraît de très bon augure.
Je vous remercie, madame la présidente, pour les deux minutes que vous m'accordez. Du coup, je vais aller très vite et passer sur les précautions d'usage : personne ne peut évidemment s'opposer à la lutte contre la haine sur internet ; on ne peut évidemment pas fermer les yeux sur la propagation – et même la généralisation – des propos haineux sur la toile. Votre texte est le bienvenu pour agir en ce sens, même si je ne suis pas absolument convaincue de la nécessité de passer par le vecteur législatif pour ce faire.
Ce qui est problématique, en revanche, c'est l'article 1er de votre proposition de loi. Vous demandez aux opérateurs de plateforme en ligne d'être davantage responsables en les obligeant à retirer les contenus haineux sous vingt-quatre heures maximum. Très bien. Mais dans l'absolu, cela pose une question difficile à trancher : ces opérateurs sont-ils les mieux placés pour exercer cette mission a priori quand il est déjà parfois si difficile pour les juges de le faire a posteriori ? Quelle légitimité auront ces opérateurs à le faire ? Avec cet article 1er, vous prenez le risque d'autoriser ces plateformes à exercer une certaine forme de censure. Vous le savez, les zones de gris sont toujours très difficiles à appréhender. Les plateformes ne sont probablement pas les mieux placées pour le faire. C'est un véritable risque que vous faites peser sur nos libertés fondamentales et en premier lieu la liberté d'expression.
Quant à l'alinéa 2 de votre article 1er, il pose deux problèmes. Tout d'abord, en prononçant une sanction pécuniaire basée sur le chiffre d'affaires de la plateforme fautive, que faites-vous du respect du principe de proportionnalité entre la sanction et l'infraction ? Ensuite, l'indexation de l'amende sur le chiffre d'affaires pose problème puisqu'elle ne peut être justifiée que par un lien entre l'infraction et le chiffre d'affaires qui en est retiré, ce qui n'est manifestement pas le cas ici.
Le Conseil constitutionnel a déjà eu l'occasion de censurer de nombreux dispositifs de sanctions financières dont le plafond était calculé en pourcentage du chiffre d'affaires, dès lors qu'il n'y avait pas de lien rationnel entre le comportement prohibé et les modalités de calcul du plafond de l'amende envisagée. Je fais notamment référence à une décision du 4 décembre 2013. Le Conseil constitutionnel a jugé que lorsque le maximum de la peine est établi en proportion du chiffre d'affaires de la personne morale prévenue et que le législateur a retenu un critère de fixation du montant maximum de la peine encourue qui ne dépende pas du lien entre l'infraction et le chiffre d'affaires, cela est susceptible de revêtir un caractère manifestement hors de proportion avec la gravité de l'infraction constatée.
Certains juristes considèrent en outre qu'une telle disposition serait contraire à l'article 8 de la Déclaration des droits de l'homme et du citoyen. Il me semble donc qu'en l'état, ce texte ne permettra pas d'atteindre l'objectif qu'il se donne, et qu'il mérite d'être retravaillé en séance.
Je voudrais intervenir sur trois points.
Le premier, qui a été largement abordé par les précédents orateurs, concerne l'éducation. Sur mon territoire comme ailleurs, des classes ont travaillé dans le cadre du Parlement des enfants sur les dangers du numérique. J'ai passé du temps avec deux de ces classes. J'ai pu constater à quel point les plus jeunes ne sont pas conscients des dangers qu'ils courent lorsqu'ils sont sur le web. Il est donc nécessaire, en effet, d'ajouter ce volet à la proposition que vous défendez, si nous voulons que les générations futures s'emparent du problème et si nous voulons éviter d'en arriver au stade où, malheureusement, nous sommes obligés de légiférer.
Deuxième sujet de préoccupation : la capacité du CSA à faire face à l'afflux de plaintes qui vont lui être soumises. J'attends des précisions car, à mes yeux, il n'y aurait rien de pire que des délais de traitement très longs, donnant à penser qu'il y a finalement une quasi-impunité.
Mon troisième sujet de préoccupation concerne l'oubli. Lorsqu'une publication a été faite sur un réseau social ou sur internet, elle laisse toujours une trace même si elle a été retirée dans des délais très brefs. Les dispositions que vous proposez dans votre texte sur le plan technique, qui consistent à mettre en évidence un bouton sur lequel on va pouvoir appuyer pour faire retirer la publication, n'abordent pas ce sujet. À mon avis, il faut forcer les différentes plateformes à trouver les moyens techniques de faire complètement disparaître toute trace des contenus condamnés et retirés.
Pour ma part, je voudrais saluer le travail effectué par la rapporteure depuis de longs mois. Personne ne vous fait de mauvais procès d'intention, chère Laetitia, mais les interventions successives montrent qu'il reste des problèmes à résoudre.
Nous avons eu des difficultés à déposer des amendements, sachant qu'il y aurait un gros travail de réécriture du texte. C'est ce qui s'est produit après l'avis du Conseil d'État, ce qui ampute un peu les capacités de travail de notre commission. Même si je ne vous en fais pas grief, je constate qu'une partie du travail va se faire dans l'hémicycle, ce qui limite les capacités d'échange. Vous avez d'ailleurs souligné vous-même que le volet pénal serait vu avec la garde des Sceaux en séance. Nous allons donc manquer un peu de recul.
Or nous sommes tous d'accord sur la philosophie générale du texte : nous ne pouvons pas laisser prospérer des propos haineux sur internet. Comme Arnaud Viala vient de le rappeler, le Parlement des enfants a travaillé sur ce sujet qui traverse toutes les couches de la société. Il faut se donner les moyens de bannir cette haine mais sans restreindre la liberté d'expression, le droit à la différence et la liberté d'opinion. Il ne faut pas confondre opinion et délit.
Tout cela nous donne le sentiment d'un texte inabouti qui reste à parfaire en veillant au contrôle par le juge qui permettrait de lever certaines ambiguïtés. L'équilibre actuel est sans doute instable mais c'est avec vigilance et sens des responsabilités que nous allons examiner ce texte. C'est la position de notre groupe et de bon nombre d'entre nous. Notre attente réelle, qui ne vaut pas blanc-seing, correspond à celle de la société.
En effet, ce texte est important et attendu. Depuis des années, nous assistons à un déferlement de propos haineux sur internet et nous avons l'impression que notre société n'est pas prête à prendre les mesures indispensables pour les endiguer. La liberté d'expression en France n'est pas sans limite. Ni le droit français ni les textes européens n'autorisent les propos racistes, antisémites ou négationnistes. Ce n'est pas une question de liberté d'expression.
La loi de 1972 contre le racisme était efficace mais elle est devenue quasiment inopérante sur internet en raison de la multiplication de messages en tout genre et de l'importance d'aspects techniques que les associations et même les parquets ne maîtrisent pas. Nous avons tenté d'y remédier en 2004, en obligeant les plateformes à retirer les contenus odieux, mais cette loi n'est pas suffisamment efficace compte tenu de l'absence de sanctions.
Nous sommes très favorables à l'idée d'accroître l'efficacité de la lutte contre ce déferlement de haine. Nous pensons d'ailleurs qu'il était urgent de se saisir du problème et d'essayer d'avancer. Le texte n'est pas abouti et il est en train de se peaufiner.
C'est une bonne idée de prévoir des sanctions administratives pour obliger les plateformes à retirer immédiatement les contenus manifestement illicites. Il faut préciser la place du juge qui intervient ensuite pour gérer les difficultés ou les interprétations divergentes. Il faut aussi préciser la place des associations qui sont très efficaces dans la lutte contre le racisme et les propos odieux.
Merci, madame la présidente, de m'accueillir dans votre commission où je voulais intervenir même si Danièle Obono et d'autres collègues ont déjà dit beaucoup de choses.
Madame la rapporteure, je ne doute pas que vous travaillez sur le sujet depuis longtemps et je ne cherche pas la controverse. Admettez tout de même que vos amendements, que vous avez certes déposés jeudi mais dont nous n'avons pris connaissance qu'en début de semaine, remettent en cause tout le travail accompli. Nous les découvrons la veille alors que nous sommes sur d'autres dossiers. Cela complique sacrément le travail concernant ces matières complexes qui nécessitent des rencontres et des échanges avec de nombreuses associations.
Pour ma part, j'aimerais que vous m'éclairiez sur l'article 6 qui prévoit en quelque sorte le remplacement de l'autorité judiciaire par une autorité administrative aux capacités étendues. Comment envisagez-vous la relation entre les deux autorités ? L'application de ce texte va se heurter à des problèmes qu'il ne règle pas et qui le dépassent : les conditions très difficiles dans lesquelles exercent les juges et l'engorgement du système judiciaire. Nous pouvons multiplier les textes mais si les magistrats sont écrasés de travail, nous en revenons toujours au point de départ. Comme le soulignait notre collègue Pau-Langevin, il existe déjà des lois mais il est difficile de les faire appliquer. Quoi qu'il en soit, j'aimerais avoir des précisions sur cet article 6 qui est assez peu compréhensible et sans doute contestable sur le fond.
À mon tour, je voudrais reconnaître le travail de notre collègue Laetitia Avia que je ne mets nullement en cause. Ce texte recèle néanmoins un danger potentiel : pour ne pas encourir les sanctions financières prévues, les grands opérateurs pourraient être tentés d'appliquer le principe de précaution et censurer des publications considérées à tort comme haineuses.
Je vais vous donner deux exemples qui montrent la difficulté d'établir cette frontière. Il y a douze ans, lors du procès retentissant des caricatures de Mahomet, le tribunal correctionnel de Paris avait retenu, en première instance, la qualification d'injures envers les musulmans. Par la suite, cette analyse avait été infirmée par la cour d'appel. En 2018, il a fallu aller jusqu'en cassation pour trancher la qualification à donner à l'expression Fuck Church peinte sur la poitrine dénudée de plusieurs militantes de Femen. C'est dire s'il est compliqué d'établir la qualification de propos haineux.
Or cette proposition de loi apporte une réponse préoccupante. Elle donne aux grands opérateurs la capacité de se prononcer sur la légitimité ou le caractère haineux d'une publication, sans intervention du juge. Cette disposition se heurte au respect des droits fondamentaux, à la Déclaration des droits de l'homme et du citoyen de 1789 et à la loi du 29 juillet 1881 sur la liberté de la presse. Comme certains collègues, je pense qu'il convient de redéfinir avec beaucoup plus de précision le rôle du juge – garant des libertés individuelles – et celui du CSA.
Comme il n'y a pas d'autres demandes de prise de parole, je vais demander à Mme la rapporteure de répondre si elle le souhaite, puis nous examinerons les articles de la proposition de loi.
Nous aurons l'occasion de débattre sur chacun des articles mais je vais répondre aux questions très concrètes qui m'ont été posées.
Quel sera le rôle du CSA ? Il interviendra tout le temps, en fait. En amont, il émettra des recommandations, tracera des lignes directrices, préconisera de bonnes pratiques. Les grandes plateformes ont un recueil de jurisprudences puisqu'elles ont déjà une obligation de retrait des contenus manifestement illicites. Le CSA prendra ses responsabilités en transmettant ses recommandations aux plateformes pour qu'elles sachent ce qu'elles ont à retirer. Il aura aussi un rôle de supervision des plateformes. Il sera l'interlocuteur référent sur le territoire national et il sera en lien avec les plateformes pour les accompagner. N'oublions pas que les dispositions ne s'appliquent qu'aux contenus manifestement illicites et pas du tout aux contenus gris pour lesquels il n'y a pas ce délai de vingt-quatre heures même si l'obligation de traitement et de retrait demeure.
Qu'est-ce qui caractérise un contenu manifestement illicite ? La question se pose déjà dans le cadre actuel. Les contenus manifestement illicites sont ceux qui ont déjà été qualifiés comme tels. La jurisprudence est assez dense : 269 arrêts traitent des injures racistes sur internet, par exemple. Tout ce qui est plus sensible et demande une interprétation n'entre pas dans le champ du texte.
Le dispositif prévu à l'article 6 concerne les sites miroirs. Nous nous situons dans le cas où un site a fait l'objet d'une interdiction judiciaire, c'est-à-dire que le juge a demandé au fournisseur d'accès ou au moteur de recherche de le déréférencer. Si un site miroir est créé, permettant d'accéder exactement au contenu déjà jugé illicite, l'autorité administrative pourra demander au fournisseur d'accès ou au moteur de recherche d'effectuer ce même blocage. L'autorité administrative, c'est l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC), qui met sa plateforme PHAROS à la disposition des internautes. Cette disposition permet d'éviter de refaire une procédure et de repasser devant le juge pour chaque site miroir créé comme c'est le cas actuellement. En cas de contestation, il y a évidemment un recours judiciaire. Le juge est présent au début pour interdire un site et toutes ses éventuelles duplications, et il intervient en cas de contestation. Le juge est donc bien là en amont et en aval de la procédure.
Avant l'article 1er
La Commission examine l'amendement CL87 de la rapporteure.
Cet amendement est le premier d'une série d'amendements visant à structurer la proposition de loi en cinq chapitres pour lui donner une meilleure lisibilité comme je vous l'ai expliqué dans mon propos liminaire. Ce premier chapitre porte sur l'obligation de retrait renforcée des contenus haineux en ligne.
La Commission adopte l'amendement. Un chapitre Ier est inséré.
Article 1er : Obligation de retrait en vingt-quatre heures des contenus manifestement haineux en ligne
La Commission est saisie de l'amendement CL88 de la rapporteure.
Toujours dans cet objectif de structuration, l'amendement propose de créer un nouvel article 6-2 après l'article 6-1 de la LCEN, qui porte sur les dispositions liées à l'obligation de retrait en vingt-quatre heures.
La Commission adopte l'amendement.
Puis elle examine l'amendement CL142 de M. Philippe Dunoyer.
Cet amendement vise à élargir considérablement le champ du texte à tous les opérateurs de retrait et, en plus, il enlève la notion de manifestement illicite pour les contenus. Demande de retrait ou, à défaut, avis défavorable.
Je ne le retire pas parce que ce n'est pas moi qui l'ai déposé. En revanche, je retire ma signature car je ne l'avais pas compris comme ça.
La Commission rejette l'amendement.
Elle adopte l'amendement rédactionnel CL89 de la rapporteure.
Puis elle examine l'amendement CL229 de M. Thomas Rudigoz.
Par le présent amendement, je vous propose d'étendre le spectre de cette proposition de loi aux plateformes de financement participatif en ligne telles que Leetchi ou Le Pot commun. Ces plateformes se sont en effet largement démocratisées et elles sont devenues un moyen comme un autre de diffuser des idées, hélas parfois haineuses, sur internet. En décembre dernier, PHAROS a ainsi ouvert une procédure contre le créateur d'une cagnotte Leetchi destinée à financer un tueur à gages pour éliminer le Président de la République, ce qui peut être qualifié juridiquement d'incitation à commettre un crime.
La loi permet déjà de sanctionner ce type de cagnotte mais l'intérêt d'inclure les plateformes de financement participatif dans le champ de cette proposition de loi serait de les soumettre à l'obligation de retirer la cagnotte litigieuse dans un délai de vingt-quatre heures après signalement.
Afin d'intégrer les plateformes de financement participatif dans ce nouveau dispositif, je vous propose de reprendre les termes de l'article L. 111-7 du code de la consommation pour étendre l'application de l'article 1er aux opérateurs mettant en relation plusieurs parties en vue de la fourniture d'un service ou de l'échange d'un contenu et pas seulement en vue du partage de contenus publics.
Je précise, madame la rapporteure, qu'il s'agit d'une des trente-deux recommandations que nous avons formulées dans le cadre du rapport d'enquête sur la lutte contre les groupuscules d'extrême droite en France, qui vient d'être présenté. Nous devons en effet clarifier le régime de responsabilité des plateformes de financement participatif à l'égard des actions qu'elles permettent de financer.
Cet amendement étend le champ d'application du texte aux plateformes de financement participatif mais aussi à l'ensemble des places de marché, dites marketplaces. Le Conseil d'État a débattu du champ d'application complet du texte, je vous le dis en toute transparence. Il a estimé qu'il fallait l'étendre aux moteurs de recherche mais pas aux plateformes qui font de l'échange de biens et de services pour deux raisons : cette obligation extrêmement renforcée doit répondre à un véritable besoin qui n'a pas encore été identifié pour ce type d'opérateurs ; une telle extension du nombre d'acteurs soumis à cette obligation renforcée élargirait du même coup le champ de régulation du CSA, au risque de nuire à l'efficacité de ce dernier. Demande de retrait ou, à défaut, avis défavorable.
Je n'ai pas eu connaissance de cet avis du Conseil d'État. Je souhaiterais que nous puissions avoir un temps d'échange avant l'examen du texte dans l'hémicycle car ces plateformes de financement participatif posent un vrai problème. L'exemple que je vous ai cité n'est pas anodin. Il est peut-être possible de faire évoluer le texte en prenant des précautions pour tenir compte de la position du Conseil d'État. À ce stade, je souhaiterais maintenir mon amendement.
La Commission rejette l'amendement.
Puis elle examine l'amendement CL90 de la rapporteure.
Dans la continuité de ce que je viens d'indiquer à Thomas Rudigoz, cet amendement tire la conséquence de la recommandation du Conseil d'État d'intégrer les moteurs de recherche dans le champ d'application du texte en respect du principe d'égalité.
Cet amendement propose en effet d'élargir le plus possible le champ d'application du texte et de ne pas épargner les moteurs de recherche. Certains collègues l'ont d'ailleurs souligné dans leurs interventions. Les prestataires de services, les fournisseurs d'accès à internet ou les hébergeurs invoquent souvent le caractère un peu technique, souvent automatique, voire passif, de leur métier pour rejeter toute responsabilité concernant le contenu qu'ils se bornent à transmettre et à stocker. Comment être sûr qu'ils ont la connaissance effective du caractère illicite des contenus ?
La Commission adopte l'amendement.
Puis elle examine, en discussion commune, l'amendement CL91 de la rapporteure et l'amendement CL69 de Mme George Pau-Langevin.
Mon amendement réécrit les dispositions concernant le seuil en tenant compte de commentaires faits dans le cadre des auditions sur les difficultés que pouvait poser la référence explicite à un nombre de connexions. J'ai préféré une rédaction plus large qui permet aussi plus d'agilité.
Pour notre part, nous souhaitions que soit fixé un seuil de 500 000 connexions mensuelles pour élargir la possibilité d'utiliser ce texte. Dans un autre amendement, nous proposons une référence trimestrielle.
La Commission adopte l'amendement CL91.
En conséquence, l'amendement CL69 tombe, ainsi que l'amendement CL48 de Mme Laurence Vichnievsky.
La Commission est saisie de l'amendement CL49 de Mme Laurence Vichnievsky.
Nous proposons de supprimer une partie de l'alinéa 1er , qui mentionne « l'intérêt général attaché à la lutte contre les contenus publiés sur internet et comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l'ethnie, du sexe, de l'orientation sexuelle ou du handicap ».
À mon sens, ce membre de phrase relève davantage de l'exposé des motifs que de la description du dispositif prévu par le législateur pour atteindre l'objectif. C'est un amendement rédactionnel mais il me semble que le législateur doit bien délimiter ce qui relève du dispositif et ce qui relève de l'exposé des motifs.
Je pense, au contraire, que la précision est nécessaire. D'autres dispositions de la LCEN, au 7 du I de l'article 6 notamment, explicitent ce dont il s'agit. La rédaction répond aussi à un objectif de clarté et de lisibilité de la loi. Il est important de vraiment dire ce que sont ces contenus haineux, une fois au moins dans l'article 1er, pour bien circonscrire le champ d'application du texte.
La Commission rejette l'amendement.
Puis elle se saisit de l'amendement CL253 de Mme Laure de La Raudière.
Pour bien préciser ce qui qualifie la nature des contenus visés par l'article 1er, je propose d'écrire « manifestement illicites » après le mot « contenus ».
Cet article 1er tient en une phrase qui dit expressément que, parmi ces contenus, seuls ceux « contrevenant manifestement » aux infractions listées seront concernés par l'obligation de retrait en vingt-quatre heures. Demande de retrait ou, à défaut, avis défavorable.
La Commission rejette l'amendement.
La Commission adopte l'amendement CL299, de précision, de la rapporteure.
Puis elle en vient à l'amendement CL283, toujours de la rapporteure.
Cet amendement vise à intégrer dans le champ d'application du texte les contenus provoquant à la commission d'actes de terrorisme ou faisant l'apologie du terrorisme.
Cette mesure ne figurait pas dans le texte initial, notamment parce que le sujet fait l'objet de discussions à l'échelle européenne. Il m'a semblé nécessaire d'intégrer ces contenus parmi ceux qui imposent une obligation de retrait sous vingt-quatre heures, c'est-à-dire un retrait effectué après signalement par tout utilisateur, dans la mesure où le règlement européen va prévoir un retrait en une heure, mais après un signalement par des autorités.
Cette disposition nous permet d'avoir un régime complet pour les contenus à caractère terroriste. Une fois que le règlement européen sera adopté, ils devront être retirés en une heure après le signalement par une autorité. En l'absence de signalement par une autorité, ils devront l'être en vingt-quatre heures s'ils ont été signalés par un internaute.
Je voudrais remercier la rapporteure pour cet amendement qui est quasiment identique à ceux que Mme Anthoine et Mme Bazin-Malgras avaient présentés en commission des Affaires culturelles et de l'éducation. Nous en avions discuté avec la rapporteure pour avis. Je suis content que cette idée soit reprise par la rapporteure. Je n'ai pas le droit de vote dans cette commission, mais suis très favorable à son amendement.
La Commission adopte l'amendement.
Puis elle examine l'amendement CL40 de M. Jacques Marilossian.
Cet amendement propose d'élargir les contenus illicites publiés sur internet à ceux portant atteinte à la dignité de la personne humaine.
En effet, le respect de la dignité humaine me semble tout aussi primordial que la liberté d'expression.
La loi du 3 septembre 1986 relative à la liberté de communication a prévu que l'exercice de cette liberté par les diffuseurs soit limité dans certains cas, précisément par le respect de la dignité humaine. Dans une décision de juillet 1994, le Conseil constitutionnel a déduit le principe à valeur constitutionnelle de sauvegarde de la dignité de la personne humaine contre toute forme d'asservissement et de dégradation de la première phrase du préambule de la Constitution de 1946. Enfin, dans une décision du 27 octobre 1995, le Conseil d'État rappelle que le respect de la dignité de la personne humaine est une des composantes de l'ordre public. Il est donc établi que le respect de la dignité humaine prévaut sur la liberté d'expression.
Par ailleurs, dans une décision cadre de novembre 2008 sur la lutte contre certaines formes et manifestations de racisme et de xénophobie au moyen du droit pénal, le Conseil de l'Union européenne invite les États membres à prendre « les mesures nécessaires pour faire en sorte que les actes intentionnels soient punissables », s'agissant entre autres de l'apologie, de la négation ou de la banalisation grossière et publique des crimes de génocide. En effet, la négation et l'apologie des crimes de génocide ou des crimes contre l'humanité ne sont pas des délits d'opinion ordinaires, dans la mesure où, procédant de la négation d'autrui, ils constituent une atteinte à la dignité de la personne humaine, la dignité des victimes mais aussi celles de leurs descendants. Pour citer l'avocat Bernard Jouanneau, membre de la Ligue internationale contre le racisme et l'antisémitisme (LICRA), « ce ne sont pas les juifs, les Arméniens, les Tutsis, les Cambodgiens, les Yougoslaves qui ont été victimes du négationnisme, c'est l'humanité ».
C'est la raison pour laquelle je vous invite à encadrer la liberté d'expression des négationnistes sur internet.
Cet amendement est essentiel car il permet de nommer ce que nous visons clairement dans cette proposition de loi, à savoir l'atteinte à la dignité humaine, le fait, en l'occurrence, de s'en prendre à quelqu'un sur internet pour ce qu'il est intrinsèquement. C'est la raison pour laquelle j'y suis évidemment favorable.
Je tiens néanmoins à préciser que, si cette atteinte à la dignité humaine – dont le Conseil d'État a estimé dans son avis qu'elle fondait en légitimité les dispositions de cette proposition de loi – permet d'en étendre le champ, on ne peut y inclure l'ensemble des infractions que vous citez dans votre exposé des motifs et dans la défense de votre amendement. Je pense notamment à la négation des crimes de génocide, mais nous y reviendrons. Il s'agit en effet de s'assurer de la parfaite conventionnalité de ce texte.
La Commission adopte l'amendement.
Puis elle en vient à l'amendement CL70 de Mme George Pau-Langevin.
Nous proposons que puisse être retiré d'une plateforme tout contenu constituant une contestation ou une négation d'un crime contre l'humanité ou d'un génocide. On ne peut en effet tolérer que soient diffusés sur internet certains propos sur le génocide arménien ou l'abolition de l'esclavage.
En 2017, la loi relative à l'égalité et à la citoyenneté entendait incriminer la négation des crimes contre l'humanité, mais le Conseil constitutionnel, suivant en cela la position défendue par son président Laurent Fabius, a censuré cette disposition au motif que ne pouvait être incriminé que le négationnisme visant des crimes jugés par le tribunal de Nuremberg, ce qui élimine, de fait, le génocide arménien et l'esclavage. Il faut pourtant que tout négationnisme en la matière puisse être sanctionné sur internet.
Pour garantir la conventionnalité de ce texte, je suis obligée de m'en tenir au champ fixé par le Conseil d'État, qui inclut notamment l'apologie des crimes contre l'humanité, des crimes de guerre et des crimes de réduction en esclavage. Nous ne pouvons aller au-delà. Avis défavorable.
Sur ce sujet extrêmement sensible, le législateur français a permis de cadrer les débats, grâce, entre autres, aux lois « Gayssot » et « Taubira ». Or l'objet de cette proposition de loi est de contraindre les opérateurs à supprimer d'eux-mêmes les contenus délictueux de leurs plateformes. Il me semble que c'est une manière de privatiser des décisions qui relèvent de la justice. Certes, il n'y aura nul débat entre nous sur la manière de qualifier la Shoah, l'esclavage ou le génocide arménien, mais l'ensemble des mémoires blessées est aujourd'hui si complexe qu'il me paraît nécessaire de circonscrire juridiquement ces sujets sensibles et de ne pas miser sur l'interprétation qu'en feront les opérateurs, au risque d'empêcher tout débat.
Le négationnisme sous toutes ses formes doit être combattu, c'est une évidence, mais avec des armes juridiques, d'où les réserves que j'exprime.
J'ai beaucoup de considération pour les magistrats, mais nous devons admettre que la justice met du temps pour se prononcer. Si l'on prend l'exemple des propos sur l'esclavage entendus récemment dans l'émission On n'est pas couchés, dans le cas où une plainte serait déposée, il y aura une décision de justice, mais qui n'interviendra pas avant six mois ou un an, voire deux. Au contraire, les réactions sur les réseaux sociaux peuvent être si rapides qu'en l'espèce, le nombre de signalements faits aux CSA a obligé l'animateur de l'émission à réagir. Il est donc normal de saisir la justice mais, lorsqu'elle rendra son verdict, le mal aura été fait.
La Commission rejette l'amendement.
Puis elle examine l'amendement CL266 de M. Belkhir Belhaddad.
Cet amendement vise à élargir le champ d'application du texte, défini à l'article 1er, en y ajoutant un combat important pour notre majorité : la lutte contre les discriminations, telle que définie par l'article 225-1 du code pénal.
Il a quelques semaines, j'ai tenu à apporter tout mon soutien à Jean Dib Ndour, victime d'actes racistes intolérables. Rappelons que cet écrivain originaire du Sénégal, à qui j'ai, en début d'année, remis la médaille de l'Assemblée nationale, est l'auteur de deux romans. Arrivé en France en 2002, il conjugue la gestion de son café littéraire et son goût pour les mots et la littérature. Petit-fils de tirailleur sénégalais, il dresse des ponts entre son Afrique natale et sa Moselle d'adoption, et c'est le jour de notre fête nationale qu'il a choisi pour inaugurer son café. C'est aussi en pensant à lui que j'ai déposé cet amendement, fondamental pour caractériser la discrimination sur internet et en neutraliser les effets.
Avis favorable sur cet amendement qui permet de rappeler que sont visées par cette proposition de loi l'incitation à la haine, mais également l'incitation à la violence et à la discrimination envers une personne ou un groupe de personnes.
La Commission adopte l'amendement.
Puis elle est saisie de l'amendement CL193 de M. Erwan Balanant.
Cet amendement a pour objectif d'intégrer les propos constitutifs de harcèlement moral, sexuel ou scolaire dans le champ d'application de la présente proposition de loi. En effet, le cyberharcèlement est un fléau pour notre société, et nous devons trouver des moyens de le combattre. Toutes tranches d'âge confondues, 8 % des Français déclarent avoir déjà été victimes de ce type de violences.
Le cas du harcèlement scolaire est éloquent : internet, les réseaux sociaux en particulier, ne sont que le prolongement de l'établissement scolaire et de ses périphéries, où les élèves en souffrance sont exposés aux propos et comportements déplacés de leurs camarades.
Il est donc primordial d'intégrer les faits de harcèlement, de tous types, dans le spectre de la proposition de loi.
Votre amendement recouvre différents sujets. Si le harcèlement sexuel est déjà visé dans les infractions que je vous propose d'inclure dans le champ de la proposition de loi, le harcèlement scolaire n'est pas une infraction autonome. Quant au harcèlement moral, il pose une vraie difficulté, dans le sens ou, pour être établi, il nécessite la réitération. Il est donc difficile, en pratique, de l'inclure dans le cadre des contenus manifestement illicites pouvant être signalés sur une plateforme. Les infractions signalées ne doivent pas être sujettes à interprétation, et c'est sans doute la raison pour laquelle le Conseil d'État a tenu à ce que le champ d'application de cette proposition de loi soit très limité.
Avis défavorable, même si j'entends la nécessité de mieux protéger les plus jeunes, et notamment les mineurs.
Nous avons déjà eu le débat sur la définition pénale du harcèlement scolaire lors de l'examen du projet de loi pour une école de la confiance. Nos échanges avaient abouti à un amendement proscrivant le harcèlement, que la commission mixte paritaire a adopté dans une version allégée. Puisque le harcèlement scolaire est désormais défini dans le code de l'éducation, il me semble qu'il doit pouvoir être intégré dans ce texte.
Nous parlons d'un fléau ! En outre, en plus d'être un fléau, le harcèlement scolaire, c'est le début de la haine dans la cour de récréation, là où peuvent se forger les mauvaises habitudes. Il est donc essentiel de s'attaquer à la racine du mal.
Je prends note du fait que vous êtes ouverte à l'idée que nous travaillions sur cette question, car, grâce à ce texte ou à un autre, nous devons trouver une manière de mieux protéger nos enfants contre ce fléau.
Les chiffres cités par Erwan Balanant sont suffisamment édifiants pour que nous acceptions de lutter contre le harcèlement. Notre groupe a néanmoins considéré qu'il était difficile d'imposer aux plateformes une obligation de résultat et un retrait des contenus dans les vingt-quatre heures en matière de harcèlement scolaire, dans la mesure où ce n'était pas un délit. Nous avons, cela étant, déposé d'autres amendements introduisant une obligation de moyens en matière de lutte contre le cyberharcèlement et mettant en oeuvre des mesures de prévention.
Cette question est centrale car elle concerne des jeunes qui n'ont pas encore nécessairement trouvé les bons repères et où l'on peut blesser l'autre sans réellement l'avoir voulu. C'est donc à nous de fixer les limites.
Bruno Fuchs a raison de dire que c'est à nous de fixer les limites, mais cet amendement soulève un problème, car il n'existe pas de définition juridique du harcèlement scolaire, et nous n'allons pas confier le soin à un acteur privé de le faire à notre place !
Je voudrais, cela étant, insister sur le fait que face à des enfants de CM1, CM2, sixième ou cinquième, l'accent doit avant tout être mis sur la pédagogie. Il y a un effort considérable à faire, et je milite en ce sens depuis des années, pour transformer le cours de technologie au collège en un cours de culture numérique, dans lequel seraient abordées l'ensemble des problématiques, du codage aux enjeux sociétaux, l'accent étant tout particulièrement mis sur le mode d'emploi des réseaux sociaux. Sur ce point malheureusement, l'éducation nationale manque d'ambition au regard de la rapidité avec laquelle évoluent les comportements numériques. Travailler en ce sens sera beaucoup plus efficace que de demander à des plateformes de rendre la justice à notre place.
Je répète que, depuis la CMP de la semaine dernière, le projet de loi pour une école de la confiance définit, dans son article 1er bis C, ce qu'est le harcèlement scolaire : « Aucun élève ne doit subir de la part d'autres élèves des faits de harcèlement ayant pour objet ou pour effet une dégradation de ses conditions d'apprentissage, susceptibles de porter atteinte à ses droits et à sa dignité ou d'altérer sa santé physique ou mentale ».
Ce n'est certes pas une définition pénale mais elle figure désormais à l'article L. 511-3-1 du code de l'éducation, de la même façon que le code du travail propose une définition du harcèlement moral ou le code pénal une définition du harcèlement sexuel.
Je veux bien entendre que nous ne soyons pas prêts mais il s'agit d'une urgence, et j'appelle donc les collègues qui le souhaitent à travailler sur ce sujet, pour aboutir éventuellement à une proposition de loi transpartisane sur les moyens de lutter contre le harcèlement scolaire.
Tout commence à l'école. C'est là que se prennent les bonnes mais aussi les mauvaises habitudes. Il me semble donc qu'il serait intéressant que cette proposition de loi s'inscrive dans le prolongement du projet de loi pour une école de la confiance, et que nous devrions retravailler cette question, en vue de la séance, pour l'intégrer dans le texte.
Même si ce débat est extrêmement important, ce n'est pas du code de l'éducation dont il nous faut parler mais du code pénal et du fait qu'il revienne à des opérateurs privés de prendre ce type de décisions. Prenons donc garde à ne pas rater notre cible.
Il est évidemment indispensable qu'un juge ait les moyens d'intervenir rapidement quand un mineur est harcelé moralement ou sexuellement – car le harcèlement n'est en somme rien d'autre que du harcèlement moral ou sexuel. Le juge pour enfant est en effet parfaitement qualifié pour entendre cette souffrance, qui nécessite une appréciation extrêmement fine de la situation, sachant qu'une simple image, en apparence innocente, peut être une arme de harcèlement.
Il n'empêche que cet amendement ne règle pas le problème que j'ai soulevé tout à l'heure, à savoir que confier à des opérateurs privés le soin d'apprécier des sujets aussi sensibles sera au mieux inefficace, aboutira au pire à une forme de privatisation de la justice, à laquelle je suis personnellement opposé.
La Commission rejette l'amendement.
Elle examine ensuite, en discussion commune, les amendements CL153 de Mme Aude Luquet et CL267 de M. Jacques Marilossian.
Le mot « race » n'apparaît plus aujourd'hui comme un terme pertinent car il représente un concept scientifiquement infondé et juridiquement inopérant. Le recours à ce mot dans notre droit, même s'il a pour objet de prohiber les discriminations entre les êtres humains, est une forme de validation et de légitimation de l'existence de « races humaines », alors que la science ne reconnait qu'une seule espèce.
Utiliser le mot « race », c'est laisser penser qu'il y en aurait plusieurs et supposer que certaines seraient supérieures à d'autres, ce qui est intolérable. Je rappelle qu'en juillet 2018, lors des premiers débats sur la révision constitutionnelle, nous avions actés collectivement la suppression du mot « race » de notre constitution. Il convient en conséquence, par cet amendement, de remplacer le mot « à raison de la race » par les mots « fondée sur des motifs racistes » qui apparaissent plus pertinents.
Le Président de la République Emmanuel Macron a rappelé, dans sa lettre aux élèves du collège de l'Esplanade à Saint-Omer, en mars 2018, qu'il était indigne que le mot « race » subsiste encore dans notre Constitution.
Lors de l'examen du projet de loi constitutionnelle l'année dernière, nous avons voté la suppression du mot « race » de la Constitution.
L'héritage de l'histoire coloniale et de certaines théories dites « scientifiques » du XIXe siècle l'y a fait figurer. Or ce terme – qui d'ailleurs n'existait pas avant les années 1930 – est aujourd'hui non seulement désuet, mais doté d'une connotation raciste.
Le décret d'août 2017 relatif aux provocations, diffamations et injures non publiques présentant un caractère raciste ou discriminatoire a supprimé l'usage du mot « race » de l'article R. 625-7 du code pénal, pour le remplacer par les termes « prétendue race », montrant que la République ne reconnaît plus de différence entre êtres humains. Cet amendement propose de reprendre les termes du code pénal.
J'avais, lors des discussions sur la révision constitutionnelle, pris très clairement position en faveur de la suppression du mot « race » de la Constitution. Il importe toutefois que cette suppression ne compromette pas la lutte contre les discriminations.
Entre les deux solutions proposées, ma préférence va à l'emploi des termes « prétendue race », pour une raison d'harmonisation, car c'est la formule employée dans de nombreux textes. Je donnerai donc un avis favorable à l'amendement CL267.
La Commission rejette l'amendement CL153.
Elle adopte l'amendement CL267.
Puis elle en vient à l'amendement CL207 de Mme George Pau-Langevin.
Il s'agit d'intégrer dans le champ des contenus haineux les discriminations à raison de l'origine des personnes qui en sont les victimes.
La Commission adopte l'amendement.
Suivant l'avis favorable de la rapporteure, elle adopte l'amendement CL219 de M. Buon Tan.
Elle examine ensuite l'amendement CL279 de M. Jean-Pierre Cubertafon.
Cet amendement vise à lancer une réflexion sur les insultes à raison de l'apparence physique, sur les réseaux sociaux.
La grossophobie par exemple, ou discrimination et stigmatisation envers les personnes obèses ou en surpoids, est un phénomène devenu récurrent au sein de notre société, bien qu'elle soit considérée par le code pénal, en son article 225-1, comme une discrimination.
La discrimination physique étant un motif privilégié des campagnes de cyberharcèlement, le présent amendement propose d'ajouter cette discrimination au texte du premier alinéa, afin de faciliter le retrait des contenus discriminants.
J'en suis profondément désolée, mais le Conseil d'État a très précisément cadré le champ d'application du texte. Nous devons nous en tenir à des contenus pouvant être qualifiés de manifestement illicites et ne pouvant prêter à l'interprétation des opérateurs.
Par ailleurs, la loi de 1881 ne vise pas l'apparence physique, et votre proposition impliquerait donc de la modifier. Or, en l'état, elle me paraît constituer un socle solide pour définir les discriminations visées par cette proposition de loi.
Cela étant, il me semble que l'ensemble des obligations de moyens proposées dans le texte permettront, comme pour le harcèlement scolaire, d'appréhender ces phénomènes. Demande de retrait ou avis défavorable.
Je comprends vos arguments juridiques mais, lorsque l'on se fait insulter sur les réseaux sociaux parce que l'on est trop gros, ou trop maigre, n'est-ce pas une atteinte à la dignité de la personne ?
Aujourd'hui, ce n'est pas complètement le cas au titre des infractions aggravées de la loi de 1881. Sont distinguées les injures simples et les injures aggravées : une injure relative au physique est une injure simple, là où une injure liée à la prétendue race, à la religion ou à l'orientation sexuelle est une injure aggravée.
La ministre de la justice a confié à la Commission nationale consultative des droits de l'homme une mission d'étude de l'application actuelle de la loi de 1881. Nous pourrons nous reposer sur les résultats de ce travail, qui devrait être rendu en octobre, pour nous saisir le cas échéant de cette question. En tout état de cause, cette proposition de loi n'a pas vocation à changer l'état de notre droit mais à garantir sa bonne application.
La Commission rejette l'amendement.
Puis elle examine, en discussion commune, l'amendement CL191 de M. Erwan Balanant, et les amendements identiques CL2 de la commission des Affaires culturelles, CL192 de M. Erwan Balanant et CL231 de M. Buon Tan.
Mon amendement a pour objet d'intégrer les propos comportant une incitation à la haine ou une injure à raison du genre dans le champ d'application de la présente proposition de loi.
En effet, dans la version qui nous est soumise, la proposition de loi couvre les incitations à la haine et les injures à raison de certains facteurs de discrimination, notamment le sexe. En revanche, le genre ne fait pas partie des facteurs pris en compte. Or, si le sexe et le genre sont deux facteurs de discrimination souvent liés, ils sont différents et doivent être distingués : alors que le sexe est une donnée physiologique, le genre ressortit à une construction culturelle et subjective.
Pour autant, le genre et le sexe sont deux facteurs de discrimination qui doivent être combattus avec la même vigueur. Cette obligation de les mettre sur le même plan découle notamment de la Convention du Conseil de l'Europe sur la prévention et la lutte contre la violence à l'égard des femmes et la violence domestique, ratifiée par la France.
L'amendement CL2 est un amendement de clarification, qui vise à intégrer explicitement l'identité de genre mentionnée par la loi de 1881 aux dispositions de l'article 1er.
Il s'agit, par l'amendement CL192, d'ajouter à la référence au genre la référence à l'identité de genre.
L'actualité de ces derniers mois a été marquée par une augmentation des comportements transphobes d'une extrême violence sur les réseaux sociaux. Je suis donc favorable au fait d'intégrer les discriminations à raison de l'identité de genre – lesquels relèvent déjà de la loi de 1881, dans le champ d'application de la proposition de loi. Les discriminations à raison du genre ne sont, en revanche, pas conformes aux prescriptions de notre droit pénal. Je soutiens donc les amendements identiques.
La Commission rejette l'amendement CL191.
Elle adopte les amendements identiques CL2, CL192 et CL231.
Puis elle est saisie, en discussion commune, des amendements CL62 de M. Guillaume Chiche et CL220 de M. Buon Tan.
Le présent amendement tend à introduire les discriminations à raison de l'état de santé des individus. Le récent documentaire diffusé sur France Télévisions concernant la grossophobie ou encore la censure par Instagram de la photo d'un mannequin taillant du 54 justifient de prévoir des dispositions législatives fortes pour condamner ces actes discriminants intolérables.
L'état sérologique mais aussi l'état psychiatrique des individus peuvent également être l'objet de cyber-haine sur les réseaux sociaux. Les termes « état de santé » nous apparaissent donc pertinents, dans la mesure où ils embrassent les différentes pathologies.
Comme les discriminations à raison du handicap, les discriminations à raison de l'état de santé doivent être interdites sur les plateformes internet.
Le handicap figure déjà dans la proposition de loi, puisqu'il est visé par la loi de 1881, et il n'est pas question de revenir sur ce point. En ce qui concerne l'état de santé, je ferai la même réponse que celle que j'ai faite auparavant sur l'apparence physique : il n'est pas visé par la loi de 1881 au titre de l'injure aggravée.
Par ailleurs j'en appelle à votre sens des responsabilités pour faire preuve de prudence dans les termes que nous retenons : l'état de santé est une notion extrêmement large, et son emploi pourrait aboutir à ce que, concrètement, on ne puisse plus critiquer quelqu'un pour un rhume. Avis défavorable.
La Commission rejette successivement les amendements.
La Commission adopte l'amendement CL300, de précision, de la rapporteure.
Elle est ensuite saisie de l'amendement CL190 de M. Erwan Balanant.
Cet amendement va nous permettre d'ouvrir un débat mais, en réalité, il ne me satisfait pas complètement. Il vise à réduire de vingt-quatre heures à douze heures le délai sous lequel les plateformes en ligne sont tenues d'effacer les contenus faisant l'objet d'un signalement.
Vingt-quatre heures sur internet, c'est une éternité. Cela étant, c'est un délai qui peut conduire à des formes de censure automatique, voire préventive – et c'est encore plus vrai lorsque le délai est ramené à douze heures. Il y a donc un problème, mais j'aimerais avoir votre point de vue, madame la rapporteure, de manière à réfléchir à une solution d'ici la séance.
J'ai une obsession avec ce texte, c'est qu'il soit opérationnel. Le délai de vingt-quatre heures est réaliste, c'est en tout cas la conclusion à laquelle j'ai abouti à l'issue de mes travaux sur la manière dont les plateformes fonctionnent et dont elles traitent les contenus.
Par ailleurs, il correspond à ce qui se pratique en Allemagne ainsi qu'au code de bonne conduite européen. Avis défavorable.
L'amendement est retiré.
La Commission examine l'amendement CL256 de Mme Laure de La Raudière.
Il s'agit de préciser que ce sont les utilisateurs de la plateforme qui sont habilités à notifier un contenu illicite.
Suivant l'avis favorable de la rapporteure, la Commission adopte l'amendement.
Elle examine ensuite, en discussion commune, les amendements CL92 de la rapporteure et CL1 de la commission des Affaires culturelles.
L'amendement CL1 est retiré.
La Commission adopte l'amendement CL92.
Puis elle examine l'amendement CL93 rectifié de la rapporteure.
Cet amendement vise à compléter le champ d'application de la proposition de loi, conformément à l'avis du Conseil d'État, qui propose de reprendre la définition des contenus odieux prévue au 7 du I de l'article 6 de la LCEN. Nous en avons déjà évoqué plusieurs éléments : incitation à la violence, à la discrimination, à la haine et injures fondées sur la prétendue race, l'origine, la religion, l'ethnie, le sexe, l'identité de genre, l'orientation sexuelle et le handicap, qu'ils soient vrais ou supposés. Le Conseil d'État préconise l'ajout de plusieurs délits, toujours manifestement illicites : apologie de crimes de guerre, de crimes contre l'humanité et de crimes de réduction en esclavage, harcèlement sexuel, traite des êtres humains, proxénétisme, pornographique infantile et terrorisme. Tel sera le champ couvert par le texte.
La Commission adopte l'amendement.
Elle en vient ensuite à l'amendement CL254 de Mme Laure de La Raudière.
Cet amendement vise à résoudre la question de la gestion des contenus gris, c'est-à-dire les contenus qui ne sont pas manifestement illicites et qui n'ont pas donné lieu à une décision de justice. Les plateformes ont l'obligation bien légitime de retirer dans les vingt-quatre heures tous les contenus qui ne respectent pas la loi. Dans certains cas, toutefois, il n'est pas facile de qualifier ce caractère illicite et l'avis d'un juge est nécessaire. En outre, la rapporteure a judicieusement prévu d'insérer une contrainte relative aux suppressions excessives. Autrement dit, les plateformes sont prises en étau entre une obligation de retrait sous vingt-quatre heures et la sanction des retraits excessifs – cette disposition très utile visant à protéger la liberté d'expression.
L'amendement vise à aboutir à un point d'équilibre car, dans certains cas, les plateformes ne sont pas en mesure de décider par elles-mêmes. Il leur permettrait alors de saisir le juge judiciaire afin que soient traités les contenus litigieux, la saisine interrompant le délai de vingt-quatre heures qui recommencerait à courir à compter de la notification de la décision du juge. Le but, encore une fois, est d'encadrer le traitement des contenus gris qui constituent un réel problème pour les plateformes.
J'entends votre préoccupation. En l'état, le texte ne porte que sur les contenus manifestement illicites. Ceux qui ne sont pas manifestement illicites ne font pas l'objet d'une obligation de retrait dans les vingt-quatre heures.
Je vous ferai une réponse en deux temps. Sur le plan juridique, tout d'abord, le Conseil d'État, au paragraphe 26 de son avis, indique que, pour ce qui concerne les contenus simplement illicites, aucune obligation expresse ne peut être imposée car elle ne serait pas conforme aux exigences constitutionnelles. Nous ne pouvons donc pas légiférer sur les contenus gris, qui ne sont pas manifestement illicites.
Sur le plan pratique, ensuite, si un contenu n'est pas manifestement illicite ou s'il suscite une interrogation, le deuxième volet du texte, qui organise la régulation administrative et le lien général avec le CSA, crée une instance de dialogue qui vise à parfaire les choses en formulant des recommandations et des lignes directrices. La seule exigence qui est faite aux plateformes consiste à retirer les contenus manifestement illicites, ni plus ni moins. Dans l'hypothèse où une plateforme ne retirerait pas un contenu dans les vingt-quatre heures parce qu'elle doute de son caractère manifestement illicite, elle pourra s'en justifier dans plusieurs forums, soit devant le juge si elle doit comparaître pour défaut de retrait, car il faudra prouver le caractère intentionnel de l'absence de retrait, soit, en cas de sanction administrative, dans le cadre d'un processus gradué – de la mise en demeure à la sanction, laquelle suppose une instruction qui est elle aussi un lieu d'échange et de dialogue. La plateforme pourra y établir qu'elle se trouvait dans une zone grise et qu'elle n'a pas manqué à son obligation de retrait de contenus manifestement illicites. Cela permettra l'amélioration constante du système qui, par nature, est évolutif car il doit pouvoir s'adapter aux nouvelles formes de haine.
Si j'ai déposé cet amendement, madame la rapporteure, c'est parce que vous allez proposer une disposition visant, pour protéger la liberté d'expression, à sanctionner les plateformes qui procéderaient à des suppressions excessives. Peut-être est-ce par méconnaissance du droit mais je m'interroge : une phrase apparaissant manifestement illicite peut-elle être considérée comme telle si elle ne correspond pas mot pour mot à un cas déjà visé par la jurisprudence ? Une image similaire mais pas identique à une autre ayant déjà fait l'objet d'une décision faisant jurisprudence pourra-t-elle être considérée comme manifestement illicite ? Sur le plan juridique, ces points me semblent encore instables – mais votre expérience est plus grande que la mienne.
Encore une fois, les plateformes se trouveront dans un étau entre une obligation de retrait et – ce que je crains – le retrait excessif, susceptible d'être sanctionné par le CSA. L'espace de dialogue auquel vous faites référence, madame la rapporteure, sera ouvert a posteriori. Par pédagogie et afin d'enrichir la jurisprudence, nous avons donc tout intérêt à prévoir une soupape, non pas pour affranchir les plateformes de l'obligation qui leur est faite mais pour que le dispositif puisse fonctionner jusqu'au bout.
Concrètement, les plateformes ont en effet l'obligation d'appliquer la loi, ni plus ni moins. C'est ce que prévoit le texte. La responsabilité qui leur incombe est certes difficile, mais elle correspond à la réalité. Les plateformes ne sauraient céder à une quelconque facilité consistant, dans le doute, à retirer un contenu, d'autant plus – c'est là une différence avec la loi allemande – qu'elles disposent d'un certain nombre de repères, depuis les premières recommandations du CSA et l'interlocuteur référent jusqu'à la mise en demeure et la procédure d'instruction, pour que tout se passe bien. L'amendement que vous proposez, madame la députée, offre une facilité aux plateformes. Dans le doute, une plateforme ayant reçu un signalement quel qu'il soit pourrait transférer le dossier pour interrompre le délai de vingt-quatre heures et ne rien faire. En clair, nous viderions le texte de sa substance.
L'amendement de Mme de La Raudière soulève une question concrète. On ne saurait nier l'existence de ce qu'elle appelle à juste titre des « contenus gris ». Pour les plateformes, en effet, certains contenus seront difficiles à caractériser afin de déterminer s'ils sont ou non manifestement illicites. En Allemagne, en cas de doute, elles privilégient le sur-retrait. Si nous ne traitons pas la question des contenus gris, nous nous exposerons au même problème.
J'entends votre argument habile, madame la rapporteure : il ne faut pas, dites-vous, faire peser l'entière responsabilité du retrait sur le juge, sans quoi tous les cas seront transférés à la justice et les plateformes opteront pour la solution de facilité. En rejetant l'amendement sans réfléchir plus avant aux possibilités de traitement des contenus gris, néanmoins, nous ne règlerons rien et nous nous exposerons à de graves difficultés.
Au contraire, il me semble que cet amendement a la vertu de mettre en lumière la responsabilité qui incombera désormais aux plateformes, qui ne pourront pas s'en remettre à une tierce personne, le juge ou autre, pour apprécier si les contenus sont manifestement illicites. Rassurez-vous : très vite, ce qui constitue un contenu manifestement illicite apparaîtra sans ambiguïté, et ce qui relève de cette définition est déjà assez clair. Il ne me semble donc pas y avoir de difficulté majeure.
En revanche, la procédure proposée par l'amendement paraît lourde, à la limite de l'usine à gaz. Dans quel cadre le juge serait-il saisi pour apprécier le caractère manifestement illicite d'un contenu ? Dans le cadre d'un débat contradictoire entre l'auteur du contenu et la plateforme qui saisit le juge ? Tout cela est bien compliqué. Vous mettez néanmoins en lumière l'un des aspects importants du texte, qui vise à responsabiliser les plateformes et à leur laisser la tâche de déterminer si les contenus sont manifestement illicites sans s'en remettre à une tierce personne. Encore une fois, je veux vous rassurer : dans 95 % des cas, nous sommes tous déjà en mesure d'établir si un contenu est ou non manifestement illicite. Rompues à cette pratique, les plateformes le feront elles aussi sans difficulté.
Je comprends cet amendement et je me réjouis que nous nous penchions sur cette question. Je souscris néanmoins aux propos de la rapporteure : au fond, nous sommes en train d'élaborer une nouvelle déontologie des plateformes à travers les bonnes pratiques diffusées par le CSA lequel, dans les cas difficiles et délicats que présentent les contenus gris pour les plateformes, pourrait jouer pleinement son rôle plutôt que le juge, qui peut toujours être saisi. Qu'en pensez-vous, madame la rapporteure ?
Ce débat fait apparaître plusieurs limites et chausse-trapes du texte. Vous parlez de plateformes de manière théorique mais, en pratique, ce sont des personnes qui vont traiter ces cas. Or la masse d'informations est considérable. Plusieurs articles de presse, sur le média en ligne Les Jours, et des recherches conduites par des journalistes aux États-Unis révèlent les conditions dans lesquelles les personnes employées par les plateformes effectuent ce travail de modération des propos en ligne – lesquels sont lamentables. Vous parlez de déontologie mais il n'est pas même garanti que ces personnes aient accès à la formation nécessaire pour définir les notions dont nous débattons. Si nous avions une discussion plus large entre nous, nous constaterions le flou qui entoure cette question, dont le texte ne garantit en rien le suivi. Encore une fois, il ne s'agit pas de plateformes mais de salariés, dont les conditions de travail sont très problématiques – voire d'une intelligence artificielle, ce qui pose alors le problème de la censure par mot-clé, des propos dénonçant des actes de violence et de harcèlement pouvant ainsi être censurés. Autrement dit, il y a derrière ce sujet des questions graves : qui est chargé de cette modération et, de fait, de cette censure ? Dans quelles conditions ?
Ce débat est très intéressant, car il arrive souvent que nous nous trouvions dans une zone grise lorsqu'il s'agit de caractériser les contenus manifestement illicites qui circulent sur internet. Il va de soi que, dans tous les cas de figure, les victimes de propos haineux doivent pouvoir saisir la justice. Je rappelle néanmoins l'idée que j'ai évoquée dans mon propos liminaire de créer une instance de médiation, un ombudsman, qui pourrait aider les plateformes à prendre les bonnes décisions. Ainsi, la plateforme ne serait pas livrée à elle-même et il ne serait pas nécessaire de saisir la justice. Cette instance, qui n'existe pas encore, pourrait peut-être voir le jour grâce à une résolution du Conseil de l'Europe comportant des recommandations aux États membres.
S'agissant du coeur du dispositif, il est utile que nous nous penchions sur ce point plus longuement. Le contenu gris est précisément celui qui va diminuer peu à peu, à mesure que la jurisprudence s'étoffera – ce qu'il faut espérer – parallèlement aux recommandations du CSA. Cela permettra aux plateformes d'améliorer leur connaissance de ces contenus.
En effet, madame Obono, les modérateurs sont des êtres humains : nous les avons vus, avec la rapporteure, travailler à Dublin. Ils sont capables d'appliquer des conditions générales d'utilisation (CGU) bien plus complexes que les dispositions que nous souhaitons concernant les contenus manifestement illicites.
Quant à la loi allemande, elle impose un retrait dans les vingt-quatre heures pour les contenus manifestement illicites et dans les sept jours pour les contenus gris. Nous nous contentons de légiférer sur les contenus manifestement illicites. C'est le coeur du dispositif et il faut à mon sens le conserver tel quel, sans quoi nous créerons une usine à gaz. Même si vous estimez, madame de La Raudière, que la procédure que vous proposez est lourde et qu'elle ne sera pas utilisée de manière abusive, les plateformes, avec leurs armées de juristes, n'auront aucune difficulté pour saisir la justice à loisir tous les jours. Elles se déresponsabiliseront si nous leur laissons une faille dans le dispositif, ce que nous devons nous garder de faire.
La préoccupation de Mme de La Raudière est tout à fait légitime. Je dirai simplement ceci : il est indispensable de conserver l'obligation de retrait dans les vingt-quatre heures. Il ne me semble donc pas judicieux de permettre la suspension du délai. En revanche, il peut être considéré que l'obligation de retrait se fait à titre conservatoire, et que rien n'empêche la plateforme de saisir une commission de concertation ou toute autre instance que nous pourrions créer afin qu'elle se prononce sur les contenus gris. Rien n'empêchera d'ailleurs les uns et les autres de saisir le juge. Cela étant, toutes ces procédures ne peuvent être déclenchées à mon sens qu'une fois les contenus problématiques retirés à titre conservatoire, sans quoi des procédures sans fin permettront aux contenus en question de prospérer sur internet.
Grâce à ce bon débat, je me rends compte que la rédaction de mon amendement est inappropriée, parce qu'il ouvrirait une brèche trop grande – ce qui n'était nullement mon intention. Je le retravaillerai donc en vue de la séance. Il serait intéressant, néanmoins, que la rapporteure nous apporte un éclairage concernant les propos de Mmes Untermaier et Pau-Langevin : ne faut-il pas compléter le texte sur ce sujet, afin d'entamer la discussion en séance en ayant purgé ce débat ?
C'est un débat important, en effet, qui appelle plusieurs réflexions. La première est celle-ci : les acteurs concernés sont une poignée et ont à leur disposition des batteries d'avocats et d'abondants recueils de jurisprudence, qui leur permettent de déterminer les contenus à retirer. Je considère toutefois qu'il nous incombe, puisque nous introduisons dans la loi une obligation de retrait sous vingt-quatre heures, de prévoir l'accompagnement nécessaire. C'est pourquoi il est demandé au CSA de prévoir d'emblée des recommandations concernant l'application de la loi afin que dès son entrée en vigueur, les plateformes disposent d'un guide pratique – bien qu'elles disposent déjà en interne des moyens nécessaires. Ce faisant, nous prenons nos responsabilités.
Mme Obono a évoqué un vide en matière de modération. Les dispositions relatives aux obligations de moyens et à la supervision du CSA prévoient que les plateformes se dotent des moyens humains et technologiques nécessaires au traitement des signalements. Elles doivent rendre compte au CSA – je déposerai un amendement en ce sens – de leur organisation interne, dans le cadre de la supervision qu'exerce le régulateur. Nous avons constaté la manière dont travaillent les modérateurs d'une plateforme, comme l'indiquait Mme Abadie. Pour certaines plateformes, nous ignorons le nombre de modérateurs ; ce n'est pas admissible et cela changera.
Enfin, madame de La Raudière, les contenus gris et le renforcement de la lutte contre les contenus haineux en général relèvent des obligations de moyens, sur lesquelles nous pouvons toujours travailler – je suis à votre disposition d'ici à la séance. Cela ne peut toutefois pas se faire dans le cadre de l'obligation de retrait des contenus manifestement illicites sous vingt-quatre heures.
L'amendement est retiré.
La Commission examine l'amendement CL148 de M. Philippe Dunoyer.
Cet amendement vise à compléter l'article 1er par l'alinéa suivant : « Dans le cas où un contenu illicite a fait l'objet d'un retrait, les opérateurs substituent au contenu illicite un message indiquant que le contenu illicite a été retiré en raison d'un signalement ou, le cas échéant, d'une décision administrative ou judiciaire ». Il a pour but d'appliquer l'information prévue aux alinéas 5 et 6 de l'article 33 de la loi du 29 juillet 1881, qui renvoient à l'article 131-5 du code pénal, à savoir la diffusion de la décision ou de la sanction à l'URL de la page internet retirée.
En effet, la notification d'une décision de retrait d'un contenu est un point important. L'amendement présente néanmoins une difficulté car il précise que le contenu en question « a été retiré en raison d'un signalement ou, le cas échéant, d'une décision administrative ou judiciaire ». D'une part, le retrait d'un contenu ne peut pas découler d'une décision administrative. D'autre part, je suis attachée à la protection des internautes. La personne ayant signalé des contenus visant expressément une personne pourrait être mise en difficulté par la rédaction proposée : ce n'est pas sur le signalement qu'il faut mettre l'accent, mais sur le retrait lui-même, lié au caractère illicite du contenu.
Je propose donc de retenir votre amendement, moyennant la suppression de la fin de l'alinéa, à partir de « en raison d'un signalement ».
La Commission adopte l'amendement ainsi rectifié.
Elle en vient à l'amendement CL94 de la rapporteure.
Cet amendement vise à préciser la place du juge dans le cadre de l'obligation de retrait. Le non-retrait par une plateforme d'un contenu manifestement illicite dans les vingt-quatre heures est déjà passible d'une sanction pénale prévue au 1 du VI de l'article 6 de la LCEN, à savoir un an d'emprisonnement et 250 000 euros d'amende.
La Commission adopte l'amendement.
Puis elle examine l'amendement CL143 de M. Philippe Dunoyer.
La fixation d'un seuil national, par exemple deux millions de connexions mensuelles en France, limite la portée de la loi aux plus gros opérateurs mais ne permet pas de supprimer des sites « territoriaux » dédiés à l'incitation à la violence et dont le trafic, bien que faible en valeur absolue, est important par rapport à la population locale. L'abaissement territorial des seuils permet également de lutter contre les stratégies d'évitement des seuils et la multiplication d'opérateurs de petite taille diffusant des contenus odieux. Enfin, la fixation d'un seuil national élevé atténue la portée de la loi, les « géants du web » étant par ailleurs déjà signataires de chartes de bonne conduite en la matière et disposés à coopérer avec l'État en faveur de la lutte contre la haine, à l'inverse de plus petits opérateurs, moins scrupuleux mais très actifs dans la propagation de contenus haineux sur Internet.
Je comprends cette préoccupation mais l'amendement ne me semble guère opérationnel. La disposition relative au seuil que nous avons adoptée laisse une certaine agilité. Il ne me paraît pas judicieux de fixer des seuils par département.
L'amendement est retiré.
La Commission examine l'amendement CL245 de M. François Pupponi.
Face à la résurgence inédite et croissante de l'antisémitisme en France, cet amendement vise à interdire la propagation de contenus haineux envers l'existence de l'État d'Israël, forme réinventée de l'antisémitisme qui vise à refuser aux juifs la qualité de peuple.
Ce texte n'a pas pour objet de redéfinir les infractions telles qu'elles existent déjà dans la loi mais de garantir l'application des sanctions. En outre, le sujet que vous soulevez fait l'objet d'une proposition de résolution dont l'Assemblée se saisira bientôt. En attendant, je vous propose de retirer l'amendement ; à défaut, avis défavorable.
La Commission rejette l'amendement.
Elle examine les amendements identiques CL95 de la rapporteure et CL4 de la commission des Affaires culturelles.
L'amendement CL95 vise à supprimer l'alinéa 2 concernant la sanction du CSA en cas de non-respect de l'obligation de retrait dans les vingt-quatre heures ; un amendement ultérieur y reviendra. L'objectif est d'assurer une bonne articulation entre les mesures afin que le dispositif soit bien compris. Nous avons créé le nouveau délit de non-retrait de contenus manifestement illicites, qui concerne les plateformes. Il convient naturellement de se tourner vers le juge – et non vers le CSA – pour obtenir une injonction de retrait et engager la responsabilité judiciaire de la plateforme concernée. Parallèlement, nous instaurons une régulation administrative à la main du CSA avec une sanction pouvant aller jusqu'à 4 % du chiffre d'affaires, à laquelle nous reviendrons. Elle s'appliquera aux comportements excessifs ou insuffisants de retrait. En clair, chacun de ces deux modes de sanction est explicité dans un chapitre distinct qui lui correspond.
Nous comprenons bien le déplacement de cet alinéa à l'article 4, qui précise les procédures applicables par le CSA d'après les recommandations du Conseil d'État, avant que des sanctions ne soient prononcées. Je rappelle simplement qu'en commission des Affaires culturelles, nous avons déposé des amendements montrant que le montant des sanctions pécuniaires doit prendre en considération la gravité des manquements commis et leur caractère réitéré.
La Commission adopte les amendements identiques.
En conséquence, les amendements CL171 de M. Ugo Bernalicis, CL85 de M. Hervé Saulignac, CL145 de M. Philippe Dunoyer, CL157 de Mme Aina Kuric, CL276 de M. Jean-Pierre Cubertafon, CL43 de M. Éric Girardin, CL155 de Mme Marie-France Lorho, CL55 de M. M'jid El Guerrab et CL84 de M. Hervé Saulignac tombent.
La Commission est saisie de l'amendement CL134 de M. Éric Ciotti.
Cet amendement vise à insérer après l'alinéa 2 l'alinéa suivant : « Après en avoir informé la personne physique ou morale condamnée, le Conseil supérieur de l'audiovisuel peut décider de publier sa décision sur le site internet de la personne concernée, ou sur tout autre support. En cas de non-respect de cette obligation, une astreinte journalière peut être décidée, dont le montant est déterminé par décret en Conseil d'État ». Comme le suggère le rapport visant à renforcer la lutte contre le racisme et l'antisémitisme sur internet, il s'agit de mettre en place un mécanisme de name and shame.
Il va de soi que je souscris pleinement à cet objectif, qui sera partiellement satisfait puisque je le reprendrai à mon compte dans les dispositions de l'article 4, plus adaptées, relatives aux pouvoirs du CSA. En revanche, je n'ai pas repris la notion d'astreinte journalière, mais seulement la publication de la décision. Je vous propose de retirer l'amendement en attendant la discussion à l'article 4.
L'un de nos amendements étant tombé, permettez-moi de prendre la parole sur celui-ci qui porte également sur le CSA. Il est question de renforcer le pouvoir du CSA mais je rappelle qu'il s'agit d'une instance extrêmement politique dont le président est nommé par le Président de la République, trois de ses membres par le président de l'Assemblée nationale et trois autres par celui du Sénat. Le fait de confier à cette autorité, dont on ne saurait considérer qu'elle est indépendante du pouvoir politique, des prérogatives quasi-judiciaires lui permettant de retirer tel et tel contenu ne nous semble pas du tout être la bonne méthode. Prenons garde à ce qu'est réellement le CSA, à savoir une instance politique. Nul ne saurait croire que ses membres sont nommés sans qu'il soit tenu compte de leurs convictions personnelles ou de leur proximité avec tel ou tel pouvoir – sans que leurs compétences soient en cause. Cette instance ne me semble pas devoir être habilitée à prendre des décisions qui se substituent quasiment à celles de l'autorité judiciaire. Maintenons ce pouvoir au juge.
Je suis très ennuyée par ces propos : certes, la nomination des membres du CSA relève des institutions que sont la Présidence de la République, l'Assemblée nationale et le Sénat, mais il me semble excessif d'attaquer ainsi l'indépendance de leur jugement. Ajoutons qu'une juridiction de premier niveau est elle aussi composée de membres dont la nomination pourrait être qualifiée de « politique » : elle s'appelle le Conseil constitutionnel, pourtant garant du respect de la Constitution. Je tenais à faire cette remarque parce que les propos précédents m'ont quelque peu choquée.
Vos mots rejoignent ma pensée, madame de La Raudière : ces nominations relèvent de l'article 13 de la Constitution et le fait qu'il en encadre les conditions permet précisément de garantir l'indépendance de ces institutions.
La Commission rejette l'amendement.
Elle examine l'amendement CL96 de la rapporteure.
Cet amendement vise à supprimer les alinéas 3 à 5 afin de procéder à la réorganisation du texte. Encore une fois, il ne s'agit ici que du dispositif judiciaire, alors que ces alinéas visaient des mécanismes de recours interne qui relèvent des obligations de moyens des plateformes. Il convient donc de les décaler plus loin dans le texte.
La Commission adopte l'amendement.
En conséquence, l'amendement CL264 de Mme Laure de La Raudière et les amendements identiques CL25 de Mme Marie-France Lorho et CL257 de Mme Laure de La Raudière tombent.
La Commission examine l'amendement CL71 de Mme George Pau-Langevin.
Avant d'aborder l'amendement, je tiens à préciser que le CSA a apporté la preuve de la qualité de son travail et que l'on ne peut que se féliciter de son action.
Cet amendement vise à ajouter au rapport annuel du CSA un bilan spécifique de l'application et de l'effectivité des politiques de lutte contre la haine sur internet, qui fera l'objet d'un certain nombre de décisions.
S'agissant des amendements qui viennent de tomber, madame de La Raudière, ils étaient placés au mauvais endroit. En revanche, Mme Kuster a cosigné un amendement identique à l'article 4 qui permettra de satisfaire pleinement votre demande.
Quant à votre amendement, madame Pau-Langevin, il va dans le bon sens mais il me semble nécessaire de le retravailler en vue de la séance sur deux points. Tout d'abord, il convient de l'intégrer à l'article 4, relatif aux pouvoirs du CSA. Ensuite, il faut en limiter le champ aux obligations prévues aux articles 6-2 et 6-3 de la LCEN, et non aux politiques de lutte contre la haine sur internet en général, dont certains pans ne relèvent pas du rapport d'activité du CSA. Demande de retrait.
L'amendement est retiré.
La Commission examine l'amendement CL3 de la commission des Affaires culturelles.
La Commission adopte l'amendement.
Puis elle adopte l'article 1er modifié.
Après l'article 1er
La Commission examine l'amendement CL97 de la rapporteure, qui fait l'objet des sous-amendements CL289 et CL290 de Mme Laure de La Raudière.
Cet amendement vise à simplifier les mécanismes de notification des contenus illicites auprès des opérateurs de plateformes. Plusieurs éléments sont actuellement demandés ; nous proposons de rapprocher le texte de la pratique. Le notifiant devra fournir ses nom, prénoms et adresse électronique ou, s'il s'agit d'une personne morale, sa forme sociale, sa dénomination sociale et son adresse électronique ; les autorités administratives qui notifient devront quant à elles fournir leur dénomination et leur adresse électronique. Surtout, aucune de ces mentions ne sera nécessaire si le notifiant est enregistré sur la plateforme – d'où la référence à « tout élément d'identification mentionné au II de l'article 6 de la LCEN ». Le mécanisme actuel de notification est assez lourd – les notifiants doivent notamment fournir leur profession et d'autres éléments pour que leur signalement soit pris en compte – et cet amendement permet de le simplifier.
Le sous-amendement CL289 vise à ajouter aux éléments à fournir une copie numérisée de la pièce d'identité du notifiant. Le Gouvernement souhaite que nous disposions de cartes d'identité numériques d'ici à la fin de l'année. Il me semble utile que les personnes qui notifient des signalements s'identifient afin d'éviter les signalements abusifs et que les notifiants soient responsables de la décision qu'ils prennent de signaler aux plateformes des contenus haineux. Je regretterais que cette modification ne soit pas adoptée car sur le plan technique, il sera bientôt aussi facile de fournir sa pièce d'identité que son adresse électronique, grâce à la carte d'identité électronique. Plaçons-nous dans cette perspective, puisque le présent texte n'entrera sans doute pas en vigueur avant que nous disposions tous d'une carte électronique.
Le sous-amendement CL290 vise les entreprises : il leur est aussi facile de joindre leur extrait K bis, qu'elles ont sous format PDF, que leur adresse électronique et leurs coordonnées.
L'amendement vise à simplifier les mécanismes de signalement. Or les sous-amendements complexifient la procédure actuelle. La LCEN ne prévoit pas la présentation d'une pièce d'identité par les notifiants. Nos deux approches sont donc très différentes. En outre, il se poserait une difficulté en termes de collecte des données personnelles : je serai toujours défavorable à ce qu'il soit demandé aux plateformes de collecter les copies des pièces d'identité des uns et des autres. Avis défavorable aux sous-amendements.
J'entends ces arguments, mais nous ne pouvons éluder ce débat, notamment le fait que la LCEN assortit les notifications et signalements de la présentation de nombreuses données personnelles. D'autre part, ce problème peut très bien être résolu en imposant aux plateformes de ne pas conserver ces données personnelles. Je ne complexifie pas à outrance le mécanisme de notification : il est archi-simple. Il faut à mon sens responsabiliser les notifiants vis-à-vis des plateformes afin qu'elles retirent des contenus haineux. Il serait autrement plus compliqué d'aller devant le juge. Je suis favorable à cette proposition de loi mais je souhaite également que nous encadrions les notifications et que les notifiants, encore une fois, soient responsabilisés.
En période d'activité intense, je notifie jusqu'à une cinquantaine de signalements par jour. Il va de soi que je ne pourrai pas fournir une pièce d'identité à chaque fois ; c'est impossible. Le problème tient à la fois à la protection des données personnelles et au caractère pratique du mécanisme.
Il existe cependant – Mme Abadie vous en parlera certainement – un réel problème lié aux signalements abusifs, qui doivent faire l'objet d'une information à titre préventif et, le cas échéant, de sanctions.
En effet, cette question a été soulevée au cours de nos auditions : les plateformes nous ont fait part de leur crainte de se trouver inondées par des signalements abusifs. L'excès de signalements légitimes ne présenterait guère de problème, mais la préoccupation des plateformes est compréhensible dès lors que les signalements sont abusifs. Nous proposerons donc un amendement qui vise à limiter ce cas de figure.
En ce qui concerne les sous-amendements, prenons conscience du fait que les plateformes vont proposer aux utilisateurs la possibilité de signaler un contenu, soit un mécanisme bien plus formalisé que le simple pouce en l'air permettant de liker des publications. Y ajouter la présentation d'une pièce d'identité, c'est imposer la responsabilité au notifiant de prendre le temps de fournir son identité alors que nous voulons également responsabiliser les plateformes. En théorie, elles disposent de toutes les données permettant d'identifier les notifiants. N'y ajoutons pas un formalisme supplémentaire qui freinerait potentiellement les notifiants de bonne foi. Telle est la position du groupe La République en Marche.
La Commission rejette les sous-amendements.
Puis elle adopte l'amendement CL97.
En conséquence, l'article 1er bis est ainsi rédigé.
La Commission en vient à l'amendement CL274 de M. Buon Tan, qui fait l'objet du sous-amendement CL284 de la rapporteure.
Cet amendement du groupe La République en Marche, sur lequel M. Tan a travaillé, porte lui aussi sur les notifications abusives. Lorsque le notifiant clique sur le bouton de signalement dont nous parlerons dans un prochain article, nous souhaitons qu'il dispose de l'information à l'instant t, qu'il engage sa responsabilité et qu'il connaisse la peine qu'il encourt en cas de notification abusive, c'est-à-dire le signalement sciemment abusif d'un contenu qu'il sait ne pas être illicite. Nous tâchons de limiter ces comportements abusifs en plaçant les notifiants devant leurs responsabilités, sachant qu'elles sont authentifiées et identifiables par la plateforme.
La Commission adopte le sous-amendement.
Puis elle adopte l'amendement CL274 sous-amendé.
En conséquence, l'article 1er ter est ainsi rédigé.
Avant l'article 2
La Commission examine l'amendement CL98 de la rapporteure.
Nous proposons de créer par cet amendement un chapitre relatif aux obligations de moyens faites aux plateformes, en l'occurrence le devoir de coopération des opérateurs de plateforme en matière de contenus haineux en ligne.
La Commission adopte l'amendement. Un chapitre II est inséré.
Article 2 (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Amélioration de la procédure de notification d'un contenu haineux en ligne
La Commission examine l'amendement CL128 de M. Raphaël Gérard.
Cet amendement vise à soumettre les plateformes à une obligation d'informer les notifiants, au moment de la notification, des risques encourus en cas de signalements abusifs répétés. J'insiste bien sur cette notion. L'idée est d'ériger un garde-fou, puisque nous avons bien vu à quel point les mesures prévues à cet article 2 sont salutaires. Il s'agit de faire du signalement un acte citoyen, et pas un acte de délation.
Les dispositions introduites par la rapporteure, qui imposent de décliner nom, prénoms et adresse électronique, me paraissent permettre des opérations de « trolling » qui pourraient être massives. Il s'agirait, en cas de signalement abusif repéré par un opérateur ou une plateforme, d'informer une nouvelle fois le notifiant de ce qu'il encourt.
Comme l'a dit Mme Abadie, le groupe La République en Marche propose un dispositif qui permet une information à chaque signalement. J'ai donc l'impression que votre amendement est satisfait, cher collègue ; j'en demande le retrait.
Je ne suis pas sûr que nous parlions de la même chose. Je crains effectivement que l'amendement CL280 de Mme Abadie, de portée plus large, ne dissuade certains, notamment les mineurs, de signaler des contenus abusifs. Le rappel systématique des risques encourus pourrait les inquiéter et les dissuader d'entreprendre un signalement. Mon amendement a pour objet de réserver ce rappel au cas où une même personne aurait attiré l'attention par des signalements répétés.
La proposition équilibrée de Mme Abadie me paraît permettre de responsabiliser les notifiants. Le dispositif allégé que vous proposez serait peut-être moins adapté.
Je vais retirer l'amendement, mais j'aimerais que nous en rediscutions d'ici à l'examen du texte en séance.
L'amendement est retiré.
La Commission examine, en discussion commune, l'amendement CL99 de la rapporteure et l'amendement CL243 de M. Jean-Félix Acquaviva.
Il s'agit de retirer du dispositif de l'article 2 des dispositions que nous avons ajoutées à l'article 1er bis. C'est l'objet de mon amendement CL99.
L'amendement CL243 a pour vocation de circonscrire la simplification des mécanismes de signalement aux discours de haine signalés aux opérateurs de plateforme en ligne, en cohérence avec les II et III de l'article 2 et avec l'article 1er de la proposition de loi. L'amendement s'attache également à conserver, au regard des exigences du principe de légalité des délits et des peines, les éléments permettant au signalement d'être complet et fondé. Il nous semble également important, dans la mesure où le domicile pour une personne physique et le siège social pour une personne morale ne sont plus exigés, que les coordonnées téléphoniques de la personne physique ou morale qui procède à un signalement soient aussi communiquées. Enfin, afin de simplifier le plus possible les signalements, nous considérons indispensable de rendre accessible, depuis le site de l'opérateur, la liste des catégories auxquelles pourront être rattachés les contenus litigieux.
Nous venons de voter ces dispositions, cher collègue. Cela étant, le Conseil d'État a pu apprécier leur plein respect du principe de légalité des délits et des peines.
La Commission adopte l'amendement CL99.
En conséquence, l'amendement CL243 tombe, de même que les amendements CL258, CL259 et CL260 de Mme Laure de La Raudière ainsi que l'amendement CL72 de Mme George Pau-Langevin.
La Commission en vient à l'amendement CL125 de M. Jean-François Cesarini.
Les sites et pages internet pouvant être très vastes, je propose que celui qui rapporte des contenus litigieux en fasse la description la plus précise possible, qu'il s'agisse d'une image ou de mots, afin de permettre une identification plus rapide par l'hébergeur.
Cet amendement se rattache à un énoncé qui, du fait de l'adoption de l'amendement CL99, ne figure plus dans le texte.
Sur le fond, l'amendement que nous avons adopté à l'article 1er bis prévoit effectivement que le contenu litigieux et les motifs pour lesquels il doit être retiré selon le notifiant soient décrits. Cela répond à votre préoccupation, sans obliger à retranscrire tout le contenu litigieux. Je vous invite donc à retirer votre amendement.
L'amendement est retiré.
La Commission examine l'amendement CL100 rectifié de la rapporteure.
Par cet amendement, je propose d'ajouter un nouvel article 6-3 à la LCEN pour mettre en harmonie l'ensemble que forment le devoir de coopération des plateformes et leurs obligations de moyen, avec toutes les dispositions de coordination nécessaires.
Sur le fond, cet amendement ajoute, au début de ces obligations, celle de se conformer aux recommandations du CSA pour la bonne application de l'obligation de retrait que nous venons d'adopter.
La Commission adopte l'amendement.
Elle en vient à l'amendement CL201 de M. Erwan Balanant.
Cet amendement vise à obliger les opérateurs mentionnés à l'article 1er à informer tout auteur d'un contenu qui aurait fait l'objet d'un signalement de l'existence dudit signalement.
Ce dispositif reprend une préconisation du Conseil d'État, formulée au point 27 de l'avis qu'il a rendu. En effet, le Conseil d'État a estimé que « ces garanties sont justifiées par le caractère fondamental de la liberté d'expression au regard des risques élevés de censure excessive par les opérateurs de plateformes ». De plus, une telle information des auteurs des contenus litigieux encouragerait une forme d'autocensure et permettrait de faire comprendre à certaines personnes – qui, aujourd'hui, ne le comprennent pas – que leurs propos sont litigieux.
C'est précisément l'objet de mon amendement CL101, qui prévoit qu'à la fois le notifiant et l'utilisateur à l'origine de la publication sont informés du retrait du contenu et du motif dudit retrait.
La Commission rejette l'amendement.
Puis elle examine, en discussion commune, l'amendement CL101 de la rapporteure, qui fait l'objet des sous-amendements CL297 et CL298 de M. Erwan Balanant, et CL291 de Mme Laure de La Raudière, et l'amendement CL160 de Mme Albane Gaillot.
Comme je viens de l'indiquer, l'amendement CL101 vise à pleinement informer les utilisateurs des conséquences des signalements et de celles de leurs publications, ce qui a également une vertu pédagogique. Les opérateurs de plateformes informeront le notifiant et l'utilisateur à l'origine de la publication du contenu notifié des suites données à la notification, ainsi que des motifs des décisions, dans un délai de vingt-quatre heures, lorsqu'ils retirent un contenu ou le font déréférencer. Comme il me paraît important de répondre à tout signalement, ils devront également le faire lorsqu'ils ne retirent pas le contenu signalé – mais alors dans un délai de sept jours à compter de la réception du signalement.
Je retire l'amendement CL297 et, par le sous-amendement CL298, je propose de fixer à quarante-huit heures plutôt qu'à sept jours le délai dans lequel les opérateurs doivent tenir informés les auteurs de signalements des suites données à leur demande de suppression de contenus lorsque ceux-ci ne sont finalement pas supprimés. C'est un délai qui me paraît praticable et, contrairement au délai de sept jours – trop long –, évite que le signalement fasse tache d'huile.
L'amendement reprend l'idée dont procédait un autre, tombé à la suite de la suppression des alinéas 3 à 5 de l'article 1er. Il vise à ce que soient rappelées, par une formulation générale, à l'auteur de la publication supprimée, dans la notification qui lui est envoyée, les sanctions civiles et pénales encourues en cas de publication d'un contenu manifestement illicite. Il s'agit de faire de la pédagogie, car certains auteurs ne sont pas conscients du fait que ce qu'ils écrivent en ligne peut être constitutif d'un délit pénal.
Un délai de quarante-huit heures, cher collègue Balanant, reste assez court, d'autant qu'il s'agit vraiment d'une démarche pédagogique en vue d'expliquer les raisons de l'absence de retrait d'un contenu qui n'est pas manifestement illicite. Je préfère que les plateformes concentrent leur énergie, leurs moyens, leur célérité sur la lutte contre les contenus illicites. Vient ensuite le travail d'information, bien sûr, mais dans des délais moins contraints, et qui restent raisonnables.
Concrètement, si vous signalez un contenu que vous considérez comme manifestement illicite et que vous n'êtes pas informé dans un délai de vingt-quatre heures du retrait de ce contenu, cela veut dire qu'il n'a pas été considéré comme manifestement illicite, ce qui vous permet d'agir ensuite par toutes voies de droit à votre disposition, et vous recevrez, dans un délai de sept jours, le message vous indiquant, avec cette dimension pédagogique, qu'il n'était pas manifestement illicite. Je suis donc défavorable, cher collègue, à votre amendement CL298.
Je me demandais si l'amendement CL291 était placé au bon endroit, mais il me paraît répondre à la même préoccupation que l'amendement CL19 rectifié de notre collègue Kuster à l'article 3, auquel j'allais vous proposer, chère collègue de La Raudière, de vous rallier, mais, finalement, je propose que nous l'adoptions.
Je rappelle que cet amendement CL101, objet de plusieurs sous-amendements, était en discussion commune avec l'amendement CL160 de Mme Albane Gaillot.
Dans le rapport « En finir avec l'impunité des violences faites aux femmes en ligne : une urgence pour les victimes » qu'il a rendu en 2018, le Haut Conseil à l'égalité entre les femmes et les hommes constate le manque de transparence et in fine de pédagogie des procédures de traitement des signalements. Je propose, par cet amendement CL160, d'y remédier en imposant aux opérateurs d'informer le notifiant des suites données à sa demande de retrait. Toutefois, et afin de faire preuve de pédagogie, il vise à imposer aux opérateurs non pas seulement d'informer mais plutôt de justifier au notifiant des suites données à sa demande de retrait : infraction concernée, règle de communauté transgressée, etc.
L'amendement me paraît relativement satisfait, car un certain nombre d'informations doivent être données aux utilisateurs, notamment sur les motifs du retrait. Je vous invite donc, chère collègue, à retirer votre amendement.
Les amendements CL297 et CL160 sont retirés.
La Commission rejette le sous-amendement CL298.
Puis elle adopte le sous-amendement CL291.
Puis elle adopte l'amendement CL101 ainsi sous-amendé.
En conséquence, les amendements CL56 de M. M'jid El Guerrab, CL194 de M. Erwan Balanant, CL181 de Mme Marie-France Lorho, CL244 de M. Paul Molac et CL195 de M. Erwan Balanant tombent.
La Commission adopte l'amendement de cohérence CL102 de la rapporteure.
Puis elle examine l'amendement CL268 de Mme Caroline Abadie.
Il est proposé, dans la proposition de loi, que le bouton de signalement soit « facilement accessible », objectif que nous partageons. En revanche, nous considérons que l'adverbe « facilement » peut engendrer de multiples interprétations de la part des plateformes, qui peuvent fort bien placer ce bouton dans ce qu'on appelle le footer – pied de page – ou dans les frequently asked questions (FAQ).
Pour éviter que ce bouton soit dissimulé, nous suggérons qu'il soit « directement » accessible, c'est-à-dire que, sur chaque contenu, sur chaque poste, sur chaque commentaire, sur chaque page du résultat d'un moteur de recherche, il soit visible et directement accessible depuis le contenu jugé illicite par l'utilisateur.
La Commission adopte l'amendement.
Puis elle en vient à l'amendement CL127 de M. Raphaël Gérard.
Cet amendement vise à préciser l'obligation des plateformes en matière de conservation des données permettant aux victimes d'engager des procédures judiciaires à l'encontre des auteurs de contenus haineux sur les réseaux sociaux.
Aujourd'hui, trop souvent, les plateformes ne conservent pas les données nécessaires permettant d'identifier l'auteur des contenus haineux qui ont pu être retirés ou supprimés. À titre d'exemple, Facebook conserve ce type de données pendant une durée d'un mois, ce qui est en total décalage avec le délai de prescription des infractions liées à la loi sur la liberté de la presse et concernant les injures à caractère haineux ou discriminatoire, qui court sur un an.
Les plateformes se retranchent souvent derrière le fait que l'obligation de conservation généralisée des données prévues par la LCEN n'est pas conforme au droit européen, et notamment aux dispositions du Règlement général sur la protection des données (RGPD).
La Cour de justice de l'Union européenne (CJUE) demande, il est vrai, de circonscrire cette obligation dans les limites de ce qui est strictement nécessaire. C'est pourquoi je propose de préciser qu'en cas de retrait de contenus, les plateformes conservent les données utiles aux fins de poursuites judiciaires pour les victimes.
Cette disposition permettra sans doute de briser le sentiment d'impunité qui règne en ligne, y compris dans les cas de cyberharcèlement, où il reste compliqué pour les victimes de produire les preuves nécessaires.
Je comprends la difficulté que vous soulevez, mais les obligations relatives à la conservation des données ne me paraissent pas relever du champ de cette proposition de loi.
Par ailleurs, sur le fond, votre rédaction est trop imprécise sur la durée de conservation des données. Demande de retrait ou avis défavorable.
Compte tenu des réelles difficultés pour engager des poursuites quand les preuves ont disparu, j'estime que cette question ne doit pas être écartée. Je vais donc retravailler cet amendement pour la séance.
L'amendement est retiré.
La Commission examine l'amendement CL161 de Mme Albane Gaillot.
Le présent amendement permettrait de faire des progrès en transparence et en pédagogie en imposant aux opérateurs de justifier auprès de l'auteur du contenu litigieux des suites données au signalement qui le vise : infraction concernée, règle de communauté transgressée ou non, etc.
Cet amendement est satisfait par l'adoption de mon amendement CL101 que nous venons d'adopter.
L'amendement est retiré.
La Commission adopte l'amendement de précision CL103 de la rapporteure.
Puis elle en vient à l'amendement CL73 de M. Hervé Saulignac.
Cet amendement concerne les moyens humains qui sont nécessaires à l'identification précise des contenus par les opérateurs. Il rappelle très simplement qu'il n'est pas souhaitable que l'ensemble du traitement des contenus repose exclusivement sur des moyens technologiques. Pour retirer un contenu, il faut la supervision d'un individu, d'un être humain et pas seulement d'une machine.
Je pense que, dans ce domaine, le RGPD est suffisamment complet : le traitement ne peut être totalement automatisé et algorithmique, sauf si les utilisateurs en sont pleinement informés et peuvent formuler certaines demandes. Demande de retrait ou, à défaut, avis défavorable.
La Commission rejette l'amendement.
Puis elle examine l'amendement CL202 de M. Erwan Balanant.
Nous souhaitons que les opérateurs mentionnés à l'article 1er mettent à la disposition des visiteurs des pages web qu'ils gèrent une information claire, précise et détaillée sur les recours dont ces derniers disposent à l'encontre de leur décision d'effacer ou de maintenir en ligne un contenu ayant fait l'objet d'un signalement. Les recours détaillés devront correspondre à ceux susceptibles d'être exercés non seulement par le notifiant mais également par l'auteur d'un contenu effacé.
Ce dispositif correspond à une recommandation formulée au point 27 de l'avis du Conseil d'État sur la proposition de loi dont nous sommes saisis, en vue d'assurer la pleine effectivité de la liberté d'expression et d'éviter les censures excessives.
C'est l'objet de mon amendement CL109 à l'article 3, auquel je vous invite à vous rallier.
L'article 3 porte sur le devoir d'information et cette disposition y a sa place. Pour la lisibilité du texte, il vaut mieux structurer les éléments.
La Commission rejette l'amendement.
Elle examine l'amendement CL104 de la rapporteure.
L'amendement reprend les dispositions de l'article 1er relatives aux mécanismes de recours interne contre les décisions prises par les opérateurs de plateforme en ligne à l'égard des contenus manifestement haineux. Cela permettra aussi d'améliorer le traitement des signalements et constituera un retour d'expérience utile auprès du régulateur.
Cet amendement est important. Il ne simplifie pas forcément les choses, mais il contribue à la transparence. Après avoir supprimé les alinéas 3 à 5 de l'article 1er, il fallait réintroduire un dispositif allant dans le même sens, afin qu'un utilisateur dont le contenu est retiré d'une publication puisse contester cette décision, de même qu'il était important de permettre à l'auteur de signalement de contester le fait que sa notification n'avait pas été suivie d'effet. Je suis donc très favorable à cet amendement.
La Commission adopte l'amendement.
Puis elle adopte l'article 2 modifié.
Nous allons interrompre nos travaux. Il nous restera 143 amendements à examiner cet après-midi.
La réunion s'achève à 13 heures 05.
Informations relatives à la Commission
- La Commission a désigné M. Thomas Rudigoz rapporteur sur la proposition de loi, adoptée par le Sénat, visant à permettre aux conseillers de la métropole de Lyon de participer aux prochaines élections sénatoriales (n° 2023).
Conformément à l'article 103 du Règlement, la présidente a fait part à la Commission de son intention de demander que cette proposition de loi fasse l'objet de la procédure d'examen simplifiée lorsqu'elle sera inscrite à l'ordre du jour de l'Assemblée nationale.
- La Commission a créé une mission d'information, commune avec la commission des affaires culturelles et de l'éducation, sur le régime des interdictions de stade et le supportérisme.
Elle a désigné M. Sacha Houlié en qualité de co-rapporteur.
Membres présents ou excusés
Présents. - Mme Caroline Abadie, M. Jean-Félix Acquaviva, M. Pieyre-Alexandre Anglade, Mme Laetitia Avia, M. Erwan Balanant, M. Florent Boudié, Mme Yaël Braun-Pivet, M. Xavier Breton, M. Vincent Bru, Mme Émilie Chalas, M. Éric Ciotti, Mme Coralie Dubost, Mme Nicole Dubré-Chirat, M. Jean-François Eliaou, M. Christophe Euzet, M. Jean-Michel Fauvergue, Mme Isabelle Florennes, M. Raphaël Gauvain, M. Philippe Gosselin, M. Guillaume Gouffier-Cha, Mme Émilie Guerel, Mme Marie Guévenoux, M. Dimitri Houbron, M. Sacha Houlié, M. Sébastien Huyghe, Mme Élodie Jacquier-Laforge, M. Mansour Kamardine, Mme Catherine Kamowski, Mme Marietta Karamanli, M. Guillaume Larrivé, Mme Marie-France Lorho, Mme Alexandra Louis, M. Olivier Marleix, M. Jean-Louis Masson, M. Fabien Matras, M. Stéphane Mazars, Mme Emmanuelle Ménard, M. Ludovic Mendes, M. Jean-Michel Mis, M. Paul Molac, M. Pierre Morel-À-L'Huissier, Mme Naïma Moutchou, Mme Danièle Obono, M. Didier Paris, Mme George Pau-Langevin, M. Pierre Person, M. Stéphane Peu, M. Jean-Pierre Pont, M. Rémy Rebeyrotte, M. Robin Reda, M. Thomas Rudigoz, M. Pacôme Rupin, M. Hervé Saulignac, M. Raphaël Schellenberger, M. Jean Terlier, Mme Alice Thourot, M. Alain Tourret, Mme Cécile Untermaier, M. Arnaud Viala, Mme Laurence Vichnievsky, M. Guillaume Vuilletet, M. Jean-Luc Warsmann
Excusés. - Mme Huguette Bello, M. Philippe Dunoyer, Mme Paula Forteza, M. Aurélien Pradié, Mme Maina Sage
Assistaient également à la réunion. - Mme Géraldine Bannier, M. Belkhir Belhaddad, Mme Barbara Bessot Ballot, M. Jean-François Cesarini, M. Guillaume Chiche, M. Dino Cinieri, M. Jean-Charles Colas-Roy, Mme Fabienne Colboc, M. Alexis Corbière, M. Pierre Cordier, M. Jean-Pierre Cubertafon, M. Nicolas Démoulin, M. Fabien Di Filippo, M. Bruno Fuchs, Mme Albane Gaillot, M. Raphaël Gérard, Mme Brigitte Kuster, Mme Laure de La Raudière, M. Michel Larive, Mme Constance Le Grip, Mme Aude Luquet, M. Jacques Marilossian, M. François Pupponi, M. Frédéric Reiss, M. Michel Zumkeller