La réunion débute à 21 heures.
Présidence de Mme Yaël Braun-Pivet, présidente
La Commission examine, en nouvelle lecture, la proposition de loi, modifiée par le Sénat, visant à lutter contre les contenus haineux sur Internet (n° 2534) (Mme Laetitia Avia, rapporteure).
Mes chers collègues, nous sommes réunis pour procéder à l'examen en nouvelle lecture de la proposition de loi relative à la lutte contre les contenus haineux sur internet. Comme vous le savez, la commission mixte paritaire a échoué, d'où ce nouvel examen en commission des Lois.
Cette proposition de loi vise à lutter contre la propagation des contenus haineux sur les grandes plateformes numériques, qui ont une capacité à surexposer des contenus et à générer une viralité autour de ces expressions de haine intolérables. Nous l'avons toutes et tous constaté, Facebook, Twitter et d'autres sont des plateformes où se multiplient les injures racistes, sexistes, homophobes, bien souvent en toute impunité, que ce soit pour les auteurs de ces contenus haineux qui sont – rappelons-le – des délinquants, que pour les plateformes qui hébergent ces contenus.
Cette proposition de loi vise donc à mieux réprimer les auteurs de contenus haineux, par le renforcement de la chaîne judiciaire, notamment à travers la création d'un parquet et d'une juridiction spécialisés, et à davantage responsabiliser les plateformes qui, par leur modèle même, contribuent à la propagation des contenus haineux. Or ces plateformes apparaissent à ce jour encore bien trop laxistes dans l'application de l'article 6 de la loi pour la confiance dans l'économie numérique (LCEN), qui les oblige pourtant, depuis 2004, à retirer promptement les contenus manifestement illicites.
Je vous rappelle que la proposition de loi initiale a été soumise au Conseil d'État, lequel a émis un avis approuvant et encourageant la dynamique engagée, tout en faisant un certain nombre de recommandations pour rendre le dispositif plus effectif et plus solide juridiquement.
Nous avons ainsi pris l'avis du Conseil d'État telle une feuille de route, et collectivement enrichi le texte autour de quatre axes.
Tout d'abord, un nouveau délit est créé afin de sanctionner les plateformes qui ne procèderaient pas au retrait des contenus manifestement haineux en vingt-quatre heures maximum, sous le contrôle de l'autorité judiciaire.
Ensuite, la modération des contenus est soumise à une nouvelle régulation comportant, d'une part, des obligations de moyens, de transparence et de coopération pour ces plateformes, et, d'autre part, l'organisation d'une mission d'accompagnement, de contrôle et de sanction par le Conseil supérieur de l'audiovisuel (CSA), qui pourra prononcer des amendes jusqu'à 4 % du chiffre d'affaires mondial de ces plateformes.
Par ailleurs, un nouveau dispositif est destiné à lutter plus efficacement contre les sites haineux dits « miroirs », qui sont des copies de sites frappés d'illicéité par une décision de justice.
Enfin, des mesures de prévention et d'éducation sont prévues, car c'est là que se trouve le nerf de la guerre.
Nous avons également voté la création de deux organes essentiels dans ce combat contre la propagation des discours de haine : un observatoire de la haine en ligne, pour mieux appréhender ces phénomènes, et un parquet spécialisé, pour mieux poursuivre les auteurs de ces discours.
Le 21 août dernier, le Gouvernement a notifié le texte à la Commission européenne, laquelle a transmis ses observations en réponse le 22 novembre. Pour ceux qui ne seraient pas familiers de la procédure de notification devant la Commission européenne, je rappelle qu'à l'issue d'une notification, la Commission européenne peut bloquer un texte pour une durée pouvant aller jusqu'à dix-huit mois s'il entre en contradiction avec ses travaux, émettre un avis circonstancié s'il y a des points de non-conformité à corriger ou formuler des observations sur « un projet notifié qui semble conforme à la législation de l'Union européenne, mais qui nécessite des éclaircissements quant à son interprétation ».
Le Gouvernement a donc reçu ces observations, que je vous inviterai à prendre comme une feuille de route dans nos débats – comme l'a d'ailleurs fait le Sénat, à certains égards. C'est ainsi que, sur les vingt articles qui ont été soumis au Sénat, trois ont été votés dans des termes identiques et neuf dans une rédaction proche, sous réserve d'utiles compléments et précisions, notamment au regard des observations de la Commission européenne. Je fais ici référence aux dispositifs de notification et d'information, ou encore à la nécessité de préciser, par souci de conformité avec le droit européen, que les nouvelles obligations de moyens reposant sur les plateformes doivent toujours être proportionnées et nécessaires.
S'agissant de la régulation administrative, le Sénat a toutefois modifié le champ des plateformes concernées en excluant les moteurs de recherche, alors qu'ils jouent un rôle décisif dans l'exposition des contenus en ligne. Cela est d'autant plus surprenant qu'en parallèle, le Sénat a ajouté une disposition permettant au CSA d'attraire devant lui d'autres acteurs numériques, dans des conditions juridiquement fragiles, en contradiction avec l'exclusion des moteurs de recherche.
Trois nouveaux articles ont été ajoutés par le Sénat. Le premier est destiné à lutter contre le financement des sites haineux par la limitation de la publicité susceptible d'y être diffusée. Le deuxième est relatif à la mission confiée aux écoles, collèges et lycées en matière d'information sur les violences en ligne. Le dernier consacre dans la LCEN la jurisprudence du Conseil constitutionnel sur la mise en jeu de la responsabilité civile et pénale des hébergeurs.
Enfin, je souligne deux avancées répondant à des questions soulevées lors de nos débats en première lecture : des dispositions permettant au CSA d'accéder aux algorithmes utilisés par les plateformes dans la modération des contenus haineux et des précisions judicieuses quant au rôle du futur Observatoire de la haine en ligne.
Je vous proposerai, chers collègues, de maintenir les apports constructifs du Sénat chaque fois qu'ils viennent renforcer notre texte.
Mais s'il y a eu échec de la CMP, c'est bien en raison d'un désaccord profond entre le Sénat et l'Assemblée nationale quant au niveau d'exigence que nous souhaitons fixer aux plateformes. Les sénateurs ont retiré l'article premier, coeur du dispositif, cantonnant la proposition à des obligations de moyens. Ce faisant, le Sénat a non seulement laissé pleinement la main aux plateformes, mais aussi retiré le juge judiciaire, garant des libertés fondamentales, du dispositif que nous avions construit. Je ne me l'explique pas, car les justifications invoquées ne tiennent pas.
Les sénateurs se sont fondés sur les observations de la Commission européenne, mais elles portent essentiellement sur la régulation administrative, et non sur le nouveau délit que nous avons institué. En effet, à la suite des remarques formulées par le Conseil d'État, nous avions anticipé ces observations et fait adopter des amendements en première lecture permettant à la France de déroger à la directive e-commerce afin de lutter contre les atteintes portées au respect de la dignité humaine. Dans ses observations, la Commission approuve notre raisonnement et une telle dérogation, mais appelle la France à mieux cibler les obligations mises à la charge des opérateurs.
Les sénateurs ont également invoqué la protection de la liberté d'expression. Cependant, non seulement ils ont supprimé le juge du dispositif mais, surtout, le Sénat a voté un amendement donnant des pouvoirs exorbitants aux plateformes pour supprimer des comptes d'utilisateurs sans infraction constituée, sur la seule base de signalements, ouvrant ainsi la voie à la multiplication de raids numériques portant atteinte à la liberté d'expression. In fine, le Sénat nous dit ne pas vouloir confier de trop grands pouvoirs aux plateformes, mais leur confie les clefs de la voiture, le GPS, le choix de l'itinéraire et celui de la destination à atteindre…
Vous aurez donc compris, chers collègues, que je vous proposerai de rétablir cette disposition essentielle au texte, laquelle permet de responsabiliser réellement les plateformes et de réaffirmer notre souveraineté face aux géants du numérique, quand il s'agit de protéger la dignité humaine de nos concitoyens.
N'oublions pas, dans nos débats, que ce qui guide nos travaux, c'est la protection de nos concitoyens avant tout. Au-delà des bons sentiments, des grandes déclarations d'intention, nous nous devons de nous bousculer et d'agir sans nous cacher derrière notre petit doigt. Nous le devons aux victimes et à tous ceux qui sont la cible d'une déferlante de haine, non pas pour ce qu'ils disent ou pensent, mais pour ce qu'ils sont.
Chers collègues, je vous invite à voter un texte à la hauteur des attentes de nos concitoyens.
Cette nouvelle lecture est l'occasion de poursuivre un travail approfondi de co-construction mené depuis deux ans pour lutter contre les contenus haineux sur internet. S'appuyant sur les conclusions d'un excellent rapport remis au Premier ministre par notre collègue Laetitia Avia avec MM. Karim Amellal et Gil Taieb, cette proposition de loi a été enrichie, tout au long de la première lecture, par nos échanges, en commission comme dans l'hémicycle, et par l'adoption de 141 amendements de tous les groupes. La proposition a été adoptée par 434 voix, venues de tous les bancs de l'Assemblée. Cela prouve qu'elle apportait des réponses unanimement approuvées.
Nos collègues du Sénat ont tenté de faire progresser ce texte, en y apportant leur contribution, par exemple en clarifiant et en renforçant les sanctions financières applicables en cas d'infraction, ou encore en imposant une obligation de transparence aux vendeurs d'espaces publicitaires vis-à-vis des annonceurs, et de ceux-ci envers le grand public. Ces efforts sont à saluer. Ils ont aussi placé l'Observatoire de la haine en ligne sous la tutelle du CSA, ce qui est judicieux, et reconnu la nécessité de renforcer la prévention contre la haine en ligne auprès des plus jeunes, en milieu scolaire.
Cependant, comme l'a indiqué la rapporteure, ils ont privé la proposition de loi du coeur de son dispositif, en supprimant le délit de non-retrait de contenus haineux dans les vingt-quatre heures. C'est pourtant la mesure phare, celle qu'attendent les victimes de messages haineux et les associations qui les défendent.
De notre côté, en CMP, nous avons fait beaucoup de propositions qui auraient pu aboutir à un équilibre, en envisageant plus de flexibilité dans l'activation du dispositif ou en supprimant la possibilité d'infliger une peine de prison. Mais le Sénat a refusé tout compromis. Il faut le dire franchement, c'est un rendez-vous manqué. En refusant toute ouverture, le Sénat a fait prévaloir la vision politicienne d'un combat qui mérite pourtant que nous unissions nos forces, au-delà des clivages partisans, comme nous l'avions fait l'année dernière à l'Assemblée nationale.
Le Sénat a fait le choix de déresponsabiliser les grandes plateformes au détriment des victimes de la haine en ligne, qui, pendant ce temps, doivent continuer à se taire et à se cacher. Le Sénat a fait le choix de l'inaction et de l'impuissance envers ceux qui insultent et qui harcèlent, choix qui libère la parole raciste, sexiste, LGBTphobe ou antisémite. Mais, de façon incohérente, les sénateurs étaient prêts à faire supprimer automatiquement les comptes signalés pour contenu haineux. Nous ne pouvons pas accepter une telle mesure liberticide.
C'est pourquoi les députés du groupe La République en Marche seront mobilisés pour soutenir les amendements qui remettront la protection des victimes – par la création de ce délit – au coeur de ce texte. Ils contribueront, par leurs amendements, à la renforcer, par exemple en supprimant le critère d'utilité publique exigé pour les associations de protection de l'enfance ou en incitant les opérateurs à mieux lutter contre la viralité des messages illicites.
Nous sommes convaincus que nous saurons parvenir ensemble, de façon consensuelle, à un texte équilibré, utile et efficace pour lutter contre la cyberhaine.
Au nom du groupe Les Républicains, je tiens à dire, pour avoir été présent à la CMP au Sénat, que ce texte aurait mérité que la navette développe pleinement ses effets. Contrairement à ce qui vient d'être dit, j'ai tout de même constaté l'existence d'un esprit d'ouverture, tant de la part du Sénat que de celle de l'Assemblée nationale. Les deux positions s'étaient rapprochées. Si nous avions eu une deuxième lecture à l'Assemblée et au Sénat, peut-être aurait-on pu y consacrer le temps nécessaire à l'établissement d'un texte consensuel.
Aujourd'hui, il faut bien constater que les deux positions n'ont pu devenir compatibles. La rapporteure a essayé de proposer une nouvelle rédaction de l'article 1er, en faisant certaines concessions par rapport à la version initiale. Mais ses efforts n'ont pas suffi pour avancer sur le sujet.
Cependant, nous ne sommes pas seuls. D'autres poursuivent aussi les mêmes objectifs que nous, dans d'autres pays européens ou ailleurs. Nous sommes prêts à mettre tout en oeuvre pour que cessent ces messages de haine propagés sur les réseaux sociaux. Plateformes et auteurs ont leur part de responsabilité dans ces contenus. D'après des sondages, 58 % des Français considèrent qu'internet est le principal foyer des discours de haine ; plus de 70 % disent avoir déjà été confrontés à des propos haineux sur les réseaux sociaux. Cela veut dire qu'il est urgent d'agir.
Depuis le 1er mars 2018, nous disposions d'une recommandation de la Commission européenne sur laquelle nous appuyer. Une nouvelle notification est arrivée en plein milieu du débat au Sénat. L'Europe y critiquait les formes que prenait la lutte contre la haine sur internet dans cette future loi française. Il nous faut tenir compte de ces nouvelles informations, que nous n'avions pas au moment de la première lecture.
Cela dit, la problématique de la régulation des contenus sur internet doit évidemment répondre à des enjeux d'indépendance et de souveraineté numériques. C'est pourquoi, à titre personnel, je suis tout à fait favorable au rétablissement, à l'article 1er, du délit de refus de retraits des contenus manifestement haineux et du délai de vingt-quatre heures. Cette proposition de loi cherche à simplifier et à accélérer la suppression des contenus publics illicites. Mais on sait très bien qu'aujourd'hui, les plateformes ont mis en oeuvre des solutions fondées sur l'intelligence artificielle, de sorte que peuvent naître certains abus. Or notre groupe tient à préserver les libertés et les droits fondamentaux, à commencer par la liberté d'expression.
Dans le même temps, nous ne pouvons pas accepter que des contenus publiés sur internet fassent des victimes, notamment lorsqu'ils comportent des incitations à la haine ou des injures à raison de la religion, de l'ethnie, du sexe, de l'orientation sexuelle ou du handicap. Les dispositions nécessaires figurent dans la proposition de loi.
Notre groupe continuera à être constructif dans ce débat, même si les avis en son sein ne sont pas tout à fait unanimes.
Même si l'échec de la CMP de la semaine dernière est regrettable, il faut tout de même en retenir des points positifs. Nos collègues sénateurs nous ont fait passer un message, à savoir que la proposition de loi telle qu'elle avait été soumise au Conseil d'État souffrait de quelques imprécisions. Mme la rapporteure en avait immédiatement corrigées, grâce à plusieurs amendements. Nous avions ainsi déjà effectué un premier travail de précision.
Le Sénat a poursuivi dans cette voie. Il a notamment souhaité tenir compte des remarques formulées par la Commission européenne sur le texte et sur sa compatibilité avec diverses dispositions de la directive sur le commerce électronique. Sur ce point spécifique, les opinions divergent : doit-on faire le choix, comme le Sénat l'a fait d'une certaine manière, de se limiter ? Ou doit-on aller plus loin et déroger à la directive, pour faire de la France une pionnière en matière de régulation des plateformes ?
Il ne fait aucun doute que le groupe MODEM et apparentés fait le choix d'aller plus loin en la matière. Je l'avais dit en première lecture, je le redis : il faut sortir des ambages ; il nous faut être plus ambitieux. C'est ce que vous proposez dans votre texte.
La Commission européenne n'est d'ailleurs pas opposée à la dérogation souhaitée par la rapporteure. Il faut donc nous saisir de l'opportunité qui nous est offerte. Car la situation actuelle l'exige.
Les raids numériques sont un véritable fléau. Certains internautes sont devenus des professionnels de ce type de pratiques ; ils savent parfaitement qu'ils ne seront pas inquiétés ! Les premières victimes de ces comportements qui, rappelons-le, constituent des délits commis dans l'espace public, ce sont nos enfants. J'entends les craintes de nos collègues ; elles ont leur légitimité. Mais pourquoi ne pas avoir alors travaillé à un compromis rédactionnel ? Pourquoi avoir entretenu un discours pour le moins paradoxal, en s'inquiétant du contournement du juge et du risque de la sur-censure qui découleraient de l'obligation de retrait des contenus manifestement haineux et avoir, dans le même temps, vidé de sa substance l'article 1er qui consolide justement le rôle du juge judiciaire ? Pourquoi avoir été plus loin que la rédaction que nous avions proposée à l'article 3 et avoir permis la suppression quasi automatique des comptes d'utilisateurs ?
Essayons maintenant de rendre à ce texte sa cohérence et son ambition. C'est la clé pour assurer son efficacité et, ainsi, mieux protéger les citoyens. C'est l'esprit qui nous anime, au groupe MODEM et apparentés. Nous souhaitons vivement que puisse être trouvée une rédaction tenant compte des apports du Sénat et de la nécessité de renforcer la proposition de loi, mais également de préserver son objectif initial. Nous ne doutons pas de la volonté de l'ensemble des groupes d'agir en ce sens.
Nous devons faire advenir ce texte pour qu'internet ne soit plus une zone de non-droit. C'est pourquoi nous soutenons la proposition de loi.
En travaillant sur ce texte, le Sénat a tenté d'apporter des idées nouvelles, en prenant en considération les critiques formulées à son encontre. Je pense toutefois qu'en vidant de sa substance l'article 1er, essentiel dans la lutte que nous souhaitons tous mener contre les contenus haineux, le Sénat n'a finalement pas contribué à la poursuite de l'objectif.
Par conséquent, nous souhaitons à bon droit que soit reprise l'idée qu'il faut supprimer le plus vite possible ce type de contenus – et le faire d'une manière administrative, sans attendre le juge.
Nous avons tous le plus grand respect et la plus grande considération pour le travail des magistrats, mais nous savons qu'ils ne pourront pas être là pour examiner a priori, tous les propos racistes ou haineux qui déferlent sur la toile. Si l'on considère que le retrait doit être autorisé par des magistrats, cela veut dire qu'on accepte que ce type de propos continuent à proliférer sur la toile.
Je pense donc que le retrait préalable par les plateformes, mesure ultérieurement susceptible de recours devant les magistrats, est la seule procédure efficace. C'est ce que nous avions imaginé. Aucune autre procédure ne garantirait une lutte aussi efficace.
Je prête la plus grande attention à la liberté d'expression, mais nous savons aussi qu'en droit français, il n'y a pas de liberté d'expression pour les propos racistes ou homophobes. Par conséquent, il n'y a pas de raison qu'on puisse lire sur la toile ce qu'on ne peut pas trouver dans un journal.
Nous devons rétablir les axes essentiels de cette proposition de loi, pour mieux mener la lutte. Cela ne suffira sans doute pas pour changer les opinions racistes ou homophobes dans ce pays. Mais, au moins, cela videra la toile de propos et de considérations qui n'ont rien à y faire et qui, à mon avis, minent plutôt notre sentiment d'appartenir à une démocratie fondée sur le respect des droits de l'homme.
Par conséquent, ma position en nouvelle lecture sera la même qu'en première. Au nom du groupe Socialistes et apparentés, j'affirme qu'il faut absolument avancer dans la voie tracée par cette proposition de loi.
Nous partageons tous l'objectif du texte, à savoir la lutte contre la haine en ligne, de même que nous partageons la volonté de rendre la loi applicable et appliquée dans le domaine d'internet. Je ne peux pourtant pas laisser dire par l'oratrice du groupe de La République en marche que le choix du Sénat est celui de l'inaction ou encore celui des grandes plateformes. Ce n'est pas du tout ce que les sénateurs ont choisi. En vérité, ils veulent renforcer la supervision par le CSA des obligations de moyens mises à la charge des opérateurs, c'est-à-dire le contrôle par la régulation, en laissant au juge le soin de décider ce qui relève de la liberté d'expression.
Le groupe UDI, Agir et indépendants est partagé entre la version de l'Assemblée nationale, qui fait de l'obligation de retrait sous vingt-quatre heures de tout contenu haineux le point central de la loi, et la version du Sénat, qui donne une plus grande place à la régulation, par le CSA, des méthodes d'action des plateformes.
Je voudrais de nouveau exprimer mon inquiétude de voir les plateformes se transformer en juges de la liberté d'expression. Nous savons tous que la jurisprudence est évolutive en la matière et qu'il est risqué de demander à un acteur privé de juger de la liberté d'expression.
Depuis l'examen en première lecture, la Commission européenne a transmis au Gouvernement des observations longues et très critiques, alertant sur la violation probable de la directive e-commerce et de la Charte des droits fondamentaux de l'Union européenne. Pourriez-vous, madame la rapporteure, faire état de votre analyse quant à ces observations ? Ma conviction est que nous devons favoriser une montée en compétence de nos autorités de régulation et instituer des obligations de moyens vis-à-vis des grands acteurs de l'internet. Les autorités administratives indépendantes doivent comprendre le fonctionnement des algorithmes de recommandation et sanctionner les fonctionnements déviants très lourdement, y compris à un très haut niveau du chiffre d'affaires.
Nous devons aussi sanctionner pénalement les responsables. Retirer les contenus revient un peu à mettre la poussière sous le tapis, sans nécessairement s'attacher à la recherche des deux responsables : d'une part, les algorithmes de recommandation qui vont favoriser et pousser ces contenus et, d'autre part, les auteurs de ces contenus.
Comme je l'avais dit en première lecture, je suis inquiète des conséquences de ce texte sur la liberté d'expression.
Comme en première lecture, le groupe La France insoumise s'oppose aux mauvaises propositions de réponse à des problèmes réels, graves et sérieux, auxquels il faudrait s'atteler autrement. La navette parlementaire n'a malheureusement pas permis d'améliorer le texte pour en faire un instrument utile, tant pour les personnes victimes de ces contenus que pour le débat démocratique et pour la communauté que nous formons aussi bien sur internet qu'en dehors. Les problèmes rencontrés sur la toile sont, de fait, les mêmes que ceux auxquels sont confrontés au quotidien des milliers de personnes, en butte aux attaques, aux insultes et aux invectives racistes, homophobes, transphobes…
En première lecture, nous avions argumenté en faveur non seulement de la liberté d'expression, mais aussi d'un accompagnement des personnes victimes des contenus haineux. Nous pensons à nouveau que le texte adopté par le Sénat, de même que le texte proposé par la rapporteure de la majorité, vont tous deux dans le mauvais sens.
Ils ne s'attaquent pas au fond du problème, à savoir l'économie particulière sur laquelle repose le fonctionnement d'internet. Cette économie est celle de la captation maximale d'attention ; ses mécanismes ont pour effet d'accélérer la diffusion à des millions, voire des milliards de personnes, de contenus qui sont délibérément les plus spectaculaires, les plus provocateurs et les plus virulents. L'économie d'internet se fonde là-dessus.
C'est pourquoi nous avions formulé des propositions en première lecture pour nous attaquer directement à ce fonctionnement, notamment en permettant l'interopérabilité. Celle-ci permet, en effet, aux internautes de s'extraire d'un environnement devenu toxique, tout en gardant des liens avec l'accès aux ressources que fournissent les plateformes.
S'agissant de la place de la justice, je m'inscris en faux contre les propos de Mme George Pau-Langevin. Certes, sur internet comme dans la vraie vie, il n'y a pas des juges à tous les coins de rue, dans toutes les institutions, pour sanctionner les propos haineux, les comportements délictueux. Quand on constate l'existence de tels propos, il faut permettre aux victimes de saisir la justice et offrir à cette dernière les moyens de faire son travail. Or cette proposition de loi ne donne pas à la justice les moyens de mener à bien cette tâche ; au contraire – c'est là où le bât blesse – elle la dessaisit, ce qui est une erreur fondamentale.
Par ailleurs, le texte ne traite pas de l'accompagnement des victimes. On a eu de nombreux débats sur les violences sexuelles et sexistes. Des victimes ont souligné le manque de moyens dédiés à l'accueil et à l'accompagnement, et les obstacles considérables, notamment financiers, qu'elles rencontrent au cours de la procédure judiciaire. C'est de cela que nous aurions dû discuter. Là encore, il n'en est rien, pas plus dans le texte du Sénat que dans les propositions renouvelées par la majorité. C'est une occasion manquée.
Je ne crois pas que le Sénat ait une stratégie plus politicienne que la majorité, laquelle semble se donner à bon compte une posture de défenseure des victimes sans prévoir les moyens correspondants. Qu'il n'y ait pas de faux débats entre nous : certes, nous pouvons partager des objectifs louables mais nous entretenons un désaccord – que nous assumons – sur les méthodes et les moyens proposés. Ceux-ci vont produire plus de mal que de bien, tant pour les victimes que pour la justice, qui se trouve reléguée au second plan, derrière les plateformes privées.
La lutte contre le fléau que représente la haine sur internet est essentielle. Cela étant, notre arsenal juridique comporte déjà pas mal de dispositions. La question est de savoir s'il faut mener un combat spécifique à internet. Je me suis laissé dire que des juges s'interrogent sur l'applicabilité de la proposition de loi, qui ne leur semble pas évidente.
Le débat est rendu complexe, d'une part, par des aspects techniques qui échappent à nombre d'entre nous et, d'autre part, par la question de la liberté d'expression. J'ai noté, comme d'autres, que la Commission européenne s'est émue du contenu de la proposition de loi. Pour notre part, nous sommes plutôt dubitatifs sur l'article 1er. Nous souhaitons que le Conseil constitutionnel, généralement sourcilleux en matière de liberté individuelle, se prononce sur cette disposition. J'ai déjà exposé à plusieurs reprises mon point de vue sur la justice administrative. J'estime que c'est au juge judiciaire de se prononcer en ce domaine et de parvenir à un équilibre ; le juge administratif est souvent tenu par des considérations liées au maintien de l'ordre, quand il ne subit pas de pressions politiques. Je présenterai trois amendements de Mme Frédérique Dumas et m'abstiendrai sur l'article 1er.
En première lecture, je m'étais abstenu, me disant que le Sénat arriverait à corriger certaines des lacunes du texte et à amener la majorité de l'Assemblée nationale à une rédaction consensuelle en CMP. Or je constate à regret que votre majorité n'a pas su se rapprocher des propositions sénatoriales.
Je serai probablement conduit à voter contre la proposition de loi dans l'hémicycle, la semaine prochaine, en raison d'une difficulté liée à l'article 1er. En matière d'expression, pardon pour cette banalité, la liberté doit être la règle et les restrictions l'exception. Cela valait à la fin du XIXe siècle, lorsqu'a été votée la loi de 1881 sur la presse ; cela doit rester de mise aujourd'hui, à l'ère d'internet, même si les supports, les modalités, les rythmes de l'expression des opinions ont évidemment beaucoup changé. Si je m'en tiens à ce principe, l'article 1er, issu de l'Assemblée nationale ne convient pas. Je comprends ce que vous avez voulu faire, madame la rapporteure, et je ne mets absolument pas en cause la pureté de vos intentions. Je vois bien que vous essayez d'améliorer le dispositif de 2004 en le rendant plus opérationnel, et ne prétends pas que vous seriez animée par une volonté de censure effrénée. Toutefois, je crains que vous ne déléguiez une capacité de censure aux algorithmes – car il n'y a pas de M. Facebook ni de M. Twitter –, sous un délai strict de vingt-quatre heures, en créant, de surcroît, une sorte de délit de non-retrait, qui va contraindre encore davantage le mécanisme. Au total, comme le disait, d'une certaine façon, Mme de La Raudière – avec qui, pour une fois, je suis d'accord –, il existe un risque de surblocage.
Tout cela, au fond, n'est pas de bonne législation. Je le dis à regret, car j'aurais aimé – c'était le sens de mon abstention en première lecture – pouvoir me rallier, in fine, à un texte. À moins que, par miracle, vous ne vous rapprochiez de la version sénatoriale dans les jours qui viennent, l'article 1er ne me semble pas pouvoir être voté, si on reste fidèle au principe de la liberté d'expression et à la nécessité de la restreindre de manière extrêmement limitée.
Je partage évidemment le but ultime de ce texte ; personne n'est favorable à la diffusion de propos haineux sur la toile. Néanmoins, je suis farouchement attachée à la liberté d'expression, comme j'ai eu l'occasion de le rappeler à maintes reprises en première lecture.
Étant non inscrite, je n'ai pas eu le privilège de participer à la CMP, mais il me semble que vous avez voulu aller vite. Je l'ai dit, vous poursuivez un noble but, mais les moyens que vous tentez d'imposer pour combattre la haine en ligne sont problématiques. La Commission européenne elle-même, qui poursuit un objectif similaire au vôtre, vous a signalé l'existence de plusieurs problèmes.
Elle souligne que des textes de loi existent déjà et qu'une nouvelle législation sur les services numériques est en cours d'élaboration. Elle demande à la France – et, par le biais de ce texte, c'est vous qu'elle interroge, madame la rapporteure –, en recourant à des arguments que vous employez fréquemment contre l'opposition, pourquoi nous votons un texte alors qu'il y en a déjà un en cours de rédaction. La Commission insiste aussi sur le fait que la proposition de loi va à l'encontre de la directive sur le commerce électronique. Plus grave, elle craint une mise à mal de la liberté d'expression sur internet – danger que j'avais souligné à maintes reprises en première lecture –, notamment du fait des contraintes que vous imposez aux hébergeurs et que vous allez confier de facto aux algorithmes. Pour résumer, la Commission estime que vous n'avez pas suffisamment veillé à la compatibilité de votre texte avec le droit européen, ce qui peut sembler paradoxal de la part d'une majorité qui fait de l'Europe l'alpha et l'oméga de sa politique.
Ce texte est tellement problématique qu'avant même son adoption, les plateformes l'ont intégré et pratiquent déjà une forme d'autocensure, toujours plus prégnante au quotidien. Une nouvelle fois, je vous mets en garde : notre législation sur la presse est largement suffisante pour répondre à ces problèmes, et je ne crois pas qu'il soit souhaitable de transférer les prérogatives du juge à des opérateurs privés. En tout cas, ce n'est pas la conception que je me fais de la liberté d'expression, au sens qu'on lui reconnaît en France.
Je partage nombre des propos qui ont été tenus, notamment par Mme de La Raudière et M. Larrivé. Je réitère mon opposition à ce texte car, même si vos intentions sont louables, il pose deux problèmes majeurs. D'une part, il soulève la question des contenus « gris », autrement dit de la sur-censure. D'autre part, il risque de conférer un pouvoir trop important aux plateformes actuelles, ce qui pourrait constituer une barrière à l'entrée de nouveaux arrivants.
Madame la rapporteure, nous avions eu des échanges dans l'hémicycle, en première lecture, sur l'interopérabilité. J'ai constaté avec plaisir que les sénateurs l'avaient réintégrée dans le texte. J'estime, comme eux, qu'elle constitue sans doute l'une des solutions pour se libérer des contenus haineux. Aussi, je regrette que, par l'un de vos amendements, vous entendiez supprimer cet apport du Sénat, au motif qu'il faudrait y réfléchir de manière plus approfondie, à partir d'un texte européen. Or, comme le dit la Commission européenne, cet argument s'applique également à votre texte. Pourquoi faire voter cette proposition de loi en urgence alors qu'un texte européen est en cours d'élaboration ? On aurait pu avoir une législation européenne harmonisée, au lieu d'un simple cadre national.
J'ai déposé plusieurs amendements de repli, car je considère que, même si le Sénat a amélioré le texte, il n'a pas totalement rétabli l'équilibre souhaitable, notamment pour obliger les plateformes à appliquer, également dans les vingt-quatre heures, des mesures véritablement contraignantes en cas d'opposition à une éventuelle censure ou suppression de textes ou de contenus. J'avoue être très inquiet quant à la mise en oeuvre effective du texte et à ses conséquences sur la liberté d'expression sur internet.
J'ai voté pour ce texte en première lecture et je maintiendrai cette position, même si je partage les inquiétudes qui viennent d'être exprimées sur la liberté d'expression et la place de la justice vis-à-vis des opérateurs privés. Je voudrais réitérer une autre préoccupation, que j'avais exprimée en première lecture, tenant à l'efficacité de certaines dispositions, notamment le droit à l'oubli. Les dégâts qui peuvent être causés par les pratiques haineuses sur internet me semblent justifier que l'on coure le risque d'affecter, aussi faiblement que possible, l'exercice de la liberté d'expression. Cela étant, compte tenu des difficultés auxquelles se heurtera l'application du texte, je me demande si celui-ci ne se réduira pas à un effet d'annonce, source ultérieure de déception. De fait, lorsqu'un contenu a été diffusé sur la toile, il est extrêmement difficile de le faire disparaître. Même si l'opérateur privé le retire aussi vite que possible, une trace demeure. Il ne faut pas faire croire aux Français qu'on va tout résoudre sans répondre à ces questions, certes techniques, mais guidées par une exigence d'honnêteté intellectuelle.
Je suis choquée par le fait qu'on présente l'interopérabilité comme une solution. Offrir la possibilité à des personnes qui ont été insultées sur une plateforme d'accéder à une autre plateforme, c'est comme dire à un enfant battu dans la cour de l'école que l'on va le faire sortir par la porte de derrière. C'est très choquant. On devrait protéger les victimes au lieu de les autoriser à fuir !
Par ailleurs, on nous dit que le juge doit conserver ses compétences actuelles. J'ai engagé plusieurs procédures judiciaires sur le fondement de la loi de 1881. C'est une très belle loi, mais il faut reconnaître qu'elle est truffée de chausse-trappes, car son propos originel était de protéger les journalistes. Aujourd'hui, ce ne sont pas les journalistes qui sont en cause, mais M. Tout-le-monde qui expose ses opinions sur la toile. Ce n'est pas la première fois que la justice a affaire à ce genre de situations. En présence d'un contentieux de masse, elle n'arrive plus à faire face. Quand j'étais jeune, les affaires de chèques sans provision se plaidaient pendant des après-midi entiers dans les tribunaux. Devant la masse de contentieux, on a décidé, pour les dégonfler, que les banques devaient couvrir les petits chèques. De la même manière, des générations de policiers et de juges ont été accaparées par les infractions de stationnement. Celles-ci ont atteint un tel volume que, désormais, c'est une société privée qui remet le forfait de post-stationnement. Au-delà d'un certain nombre d'infractions, il faut trouver des solutions administratives. Dans la proposition de loi, la solution administrative consiste à éliminer les propos contestables ; la justice peut ensuite intervenir pour dire ce qui est raciste et ne l'est pas, ce qui peut être dit ou non. On élimine ainsi de nombreux contenus qui auraient engorgé la justice. Confier cette tâche au juge reviendrait à accepter qu'il n'y ait plus de réelle police sur les propos tenus.
Même si le texte peut présenter des aspects boiteux, il constitue une tentative pour endiguer le flot de propos racistes. Le problème ne tient pas seulement aux propos eux-mêmes. De fait, à force de défiler sur internet, les positions racistes, homophobes ou haineuses finissent par gagner les esprits. Aujourd'hui, les gens pensent en toute bonne foi certaines choses qu'on n'aurait jamais acceptées il y a quinze ou vingt ans. Il me paraît donc urgent d'agir pour lutter contre ce déferlement de haine.
On me parle de censure, mais je vois à longueur de temps, sur tous les médias, des gens tenir des propos que je trouve personnellement choquants et qui ne reçoivent aucune réponse. Notre société ne connaît absolument pas une sur-censure des propos haineux ou homophobes. Peut-être le texte n'est-il pas totalement satisfaisant, mais au moins pourra-t-on dire qu'on a essayé de faire quelque chose face à un phénomène extrêmement dangereux pour la démocratie.
Chapitre Ier Simplification des dispositifs de notification
de contenus haineux en ligne
Article 1er (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Obligation de retrait des contenus manifestement haineux en ligne
La Commission est saisie des amendements identiques CL1 de Mme Emmanuelle Ménard et CL29 de M. Ugo Bernalicis.
L'amendement CL1 a pour objet de supprimer l'article 1er, problématique en ce qu'il instaure la privatisation de la liberté d'expression en contournant le juge et en confiant la police de l'expression sur internet aux grandes plateformes. Les opérateurs sont-ils les mieux placés pour exercer cette mission de censure a priori quand il est parfois si difficile pour les juges de le faire a posteriori ? Quelle légitimité ont-ils pour le faire ? Avant même son entrée en vigueur, votre loi produit déjà ses effets délétères, puisque les plateformes – y compris les plus grandes – ont intégré le fait qu'elles devaient s'autocensurer et supprimer certains propos.
Quand il s'agit de propos manifestement haineux, il n'y a aucun problème ; tout le monde est d'accord pour demander leur retrait. Mais comment la plateforme appréhendera-t-elle la zone grise ? Puisque ce ne sont pas des personnes physiques qui s'y attelleront, mais des algorithmes, comment ces derniers distingueront-ils les propos clairement haineux des messages perturbants mais n'outrepassant pas les limites de la liberté d'expression, telles qu'elles sont définies par la Cour européenne des droits de l'homme ? Selon celle-ci, un propos choquant peut être admis au nom de la liberté d'expression. Je ne rappellerai pas les mots qui ont été employés récemment sur une radio publique, qui ont choqué un grand nombre de personnes – à commencer par moi – mais contre lesquels je ne m'élèverai pas, car ils constituent une manifestation de la liberté d'expression. Certains propos relèvent également de la zone grise qu'est l'humour, car on n'a pas tous le même humour, ni la même appréciation de ce type de discours. Il me paraît difficile et pas souhaitable pour la liberté d'expression en France de demander à l'algorithme d'une plateforme privée de censurer un propos, qui plus est en vingt-quatre heures.
Par l'amendement CL29, nous demandons la suppression de l'article 1er parce que nous pensons qu'il passe à côté de l'essentiel, voire qu'il pourrait rendre les choses encore plus difficiles, en premier lieu pour les victimes.
Beaucoup de contresens sont commis sur la nature et les dynamiques d'internet. Il est naïf de penser que les plateformes vont aller à l'encontre de leur intérêt premier, à savoir diffuser en masse l'information la plus virulente, provocante et dynamique possible. Leur intérêt n'est pas de rémunérer des milliers de modérateurs, qui devront être formés à la législation pour déterminer la légalité des contenus. Donc, elles ne le feront pas.
L'interopérabilité, quant à elle, existait au début d'internet. Elle ne permet pas de demander aux gens de passer par une autre porte, c'est une manière de ne pas les obliger à rester dans un espace où ils subissent des violences. Pour reprendre votre métaphore, madame Pau-Langevin, cela revient à organiser, contrôler et protéger l'espace afin que des gens puissent avoir accès à la cour d'école et jouer avec leurs enfants. Certaines opinions traduisent une méconnaissance des dynamiques actuelles d'internet. Les communautés, les personnes les plus attaquées sur le fondement de leur appartenance sexuelle, de leurs préférences sexuelles, de leur genre, ont développé ces méthodes. La volonté de bien faire est compromise par une incompréhension des mécanismes. Il faudrait du temps pour aller au fond du sujet, comprendre de quoi on parle. Les comportements en question méritent un peu plus qu'une amende de même type que celle qui est infligée pour stationnement gênant.
Parlons de la liberté d'expression dans une société démocratique, des victimes qui demandent justice et reconnaissance, mais qui passent très rarement les portes du tribunal parce qu'elles en sont empêchées ! Accordons-nous les moyens d'appliquer la loi et de satisfaire ces demandes, mais ne laissons pas le champ libre aux plateformes, qui continueront, conformément à leur modèle économique, à faire du buzz et à réaliser du profit.
Nous parlons de l'article 1er du texte voté par le Sénat, qui comporte quelques ajustements à la marge du droit existant, notamment en lien avec la LCEN, ou relatifs à la conservation des données. Le Sénat ayant supprimé l'obligation de retrait du contenu haineux dans les vingt-quatre heures, les amendements de suppression sont, sur ce point, sans objet.
Comme je l'ai dit dans mon intervention liminaire, je crois nécessaire de maintenir tous les apports constructifs émanant du Sénat. Quant au débat qui a été alimenté par la discussion générale et les deux interventions précédentes, nous y reviendrons en examinant le prochain amendement, par lequel je vous proposerai une nouvelle approche de l'article 1er. Avis défavorable.
Les amendements sont rejetés.
La Commission examine l'amendement CL49 de la rapporteure.
Nous essayons de construire un équilibre à l'article 1er. Je n'aurai pas la prétention d'affirmer que je détiens la solution ultime et que la disposition proposée constitue l'alpha et l'oméga pour lutter contre la haine sur internet. C'est un sujet sur lequel je travaille quasiment à plein temps depuis près de deux ans, qui m'a donné l'occasion de rencontrer de nombreuses personnes. Je me suis toujours efforcée de trouver la solution la plus effective, efficace et équilibrée possible.
En première lecture, nous avions voté deux dispositifs à la lumière de l'avis du Conseil d'État : une régulation administrative centrée sur des obligations de moyens et la définition d'un délit, sanctionné par le juge, pour encadrer l'obligation de retrait, en vingt-quatre heures, des contenus manifestement haineux. J'insiste sur ces deux termes : « manifestement » indique que cette disposition ne doit pas viser les contenus « gris », qui ne sont pas soumis à l'obligation de retrait ; « haineux » résulte de la définition que nous avons élaborée collectivement en commission des Lois puis dans l'hémicycle pour construire ces éléments de protection de la dignité humaine. Comme je le disais tout à l'heure, la Commission européenne a validé, s'agissant du volet délictuel, la dérogation à la directive e-commerce, dès lors qu'on se trouve dans le champ de la protection de la dignité humaine, tout en invitant à un meilleur ciblage. Par ailleurs, lors des débats au Sénat, plusieurs questions ont été soulevées, auxquelles je me suis efforcée de répondre dans la rédaction proposée en CMP. Je vous propose de voter cette disposition dans une rédaction très similaire à celle-ci, et non pas l'article 1er tel que nous l'avions voté en première lecture.
Cette rédaction rétablit d'abord une création qui constitue le coeur du texte et qui avait été construite de manière assez transpartisane avec des apports de plusieurs groupes : le régime de responsabilité renforcée des plateformes. Sans ce délit, cette responsabilité n'existerait pas et, malgré nos bonnes intentions, nous serions dépourvus d'outils efficaces. Ensuite, la rédaction est allégée, pour renforcer la lisibilité du texte. En première lecture, l'article comportait un inventaire dense, à la Prévert, des éléments constitutifs de l'atteinte à la dignité humaine. Dans la nouvelle rédaction, j'ai simplement visé le « respect de la dignité humaine » et fait référence aux infractions que nous avions collectivement ajoutées.
Pour ce qui est du champ de la mesure, deux alinéas distincts concernent les réseaux sociaux et les moteurs de recherche. S'agissant de ces derniers, nous avions prévu, en première lecture, le déréférencement des pages litigieuses, alors que nous visions en réalité le retrait du contenu haineux de la page de recherche. Autant l'écrire ainsi pour que les choses soient claires.
Nous avions beaucoup débattu des contenus à caractère négationniste. Le négationnisme n'entrait initialement pas dans le champ des contenus haineux constitutifs d'une infraction. Toutefois, compte tenu des nombreuses demandes faites par certains de nos collègues ainsi que par les associations de lutte contre la discrimination, je vous propose d'intégrer le négationnisme au champ d'application de ce texte.
Pour ce qui est des sanctions, je vous propose de retirer la peine d'emprisonnement qui, d'une part, a peu de sens dans la mesure où elle concerne des plateformes, donc des sociétés et non des personnes, d'autre part, nuit à la lisibilité du dispositif – le but de ce texte n'est pas d'envoyer M. Mark Zuckerberg en prison.
Le Sénat a très judicieusement posé une question, sur laquelle j'ai beaucoup travaillé pour préparer la CMP, consistant à définir l'élément intentionnel et à préciser les modalités d'application de la sanction. Dans ses observations sur le texte, la Commission européenne estime qu'il faudrait que les sanctions soient plus proportionnées et permettent une certaine flexibilité lorsque la plateforme a dû contextualiser le contenu visé. Je vous propose donc un alinéa permettant de donner un peu de souffle aux dispositions relatives aux sanctions, en prévoyant que, lorsque la plateforme n'a pas retiré un contenu ou l'a retiré à l'issue d'un délai supérieur à vingt-quatre heures parce que la nature du contenu, située dans la zone « gris foncé », nécessitait une évaluation, il convient de tenir compte de la bonne foi de la plateforme et, dès lors, de considérer que le caractère intentionnel du délit n'est pas constitué. Ces dispositions permettent de privilégier une approche concrète, au cas par cas, et leur évocation me donne l'occasion de rappeler que le texte n'a pas vocation à sanctionner les contenus « gris », mais uniquement les contenus manifestement haineux – un point qui se trouve donc ici précisé pour la deuxième fois dans l'article 1er.
Enfin – c'est peut-être du droit bavard, mais il vaut toujours mieux que les choses soient écrites noir sur blanc –, je rappelle que l'action en référé est toujours applicable, et qu'il est donc toujours possible de faire appel au juge, que ce soit pour faire retirer un contenu ou, à l'inverse, pour se plaindre de ce que l'on considère comme une atteinte à sa liberté d'expression.
Je récapitule donc les diverses modifications que je vous propose d'apporter à l'article 1er : elles consistent à rappeler la possibilité de faire appel au juge, à préciser que les sanctions ne s'appliquent pas indistinctement sous la forme d'un couperet, mais seulement aux acteurs n'agissant pas de bonne foi, à faire en sorte que les sanctions correspondent mieux à la réalité, à apporter quelques précisions rédactionnelles, et enfin à rétablir diverses dispositions que vous aviez votées, notamment au sujet du message de substitution, de la conservation des contenus aux fins de poursuite, de la possibilité pour les associations agréées d'engager des poursuites, et de la sanction des signalements abusifs.
La Commission adopte l'amendement et l'article 1er est ainsi rédigé.
En conséquence, les amendements CL2 et CL9 tombent.
Article 1er bis (suppression conforme) (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Formalisme de la procédure de notification d'un contenu haineux en ligne
La Commission maintient la suppression de l'article.
Article 1er ter A (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Mise en cohérence du formalisme de la notification des autres contenus illicites
La Commission adopte l'amendement de cohérence CL50 de la rapporteure.
Puis elle adopte l'article 1er ter A modifié.
Article 1er ter B (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Rôle des associations de protection de l'enfance en matière de notification des contenus haineux en ligne
La Commission adopte l'amendement de cohérence CL51 de la rapporteure.
Elle examine les amendements identiques CL52 de la rapporteure et CL43 de Mme Caroline Abadie.
Par un amendement adopté en première lecture, nous avions souhaité offrir aux mineurs utilisateurs des plateformes en ligne une protection renforcée dans les cas où ils seraient victimes de contenus manifestement haineux en ligne, en leur donnant la possibilité de saisir une association afin que cette dernière agisse en justice en leur nom.
Le Sénat a limité cette possibilité aux associations reconnues d'utilité publique, ce qui nous semble beaucoup trop restrictif. Dans le cadre de la préparation de ce texte, nous avons rencontré de très nombreuses associations agissant en faveur des personnes victimes de LGBTphobie, de racisme ou d'antisémitisme, qui ne pourraient plus agir en justice si l'exigence qu'elles soient reconnues d'utilité publique était maintenue.
L'amendement CL43 vise, par conséquent, à supprimer cette limitation.
Supprimer le critère de la reconnaissance d'utilité publique aurait pour conséquence d'élargir considérablement le champ d'intervention des associations susceptibles d'intervenir. Pour une association, être reconnue d'utilité publique donne droit à la défiscalisation et, en l'état actuel de la législation, cette reconnaissance n'est pas très compliquée à obtenir. La modification proposée par le Sénat n'a donc pas un caractère si restrictif. Si les associations que vous avez rencontrées avaient un objet d'intérêt général, ce qui est le cas de la lutte contre l'homophobie et contre les discriminations en général, elles n'auraient aucune difficulté à obtenir un agrément d'utilité publique. Je ne vois donc pas ce qui justifie de revenir sur la rédaction du Sénat.
Je suis complètement d'accord avec Mme de La Raudière. Exiger que les associations soient reconnues d'utilité publique ne représente qu'une toute petite restriction, et supprimer cette exigence aurait pour effet de donner à toutes les associations agissant en France la possibilité de poursuivre en justice. Or chacun sait que certaines associations ont fait une sorte de fonds de commerce des actions qu'elles intentent en justice contre tout le monde et n'importe qui, vivant quasi exclusivement des revenus que cela leur procure.
La toute petite restriction introduite par le Sénat me semble donc, non seulement sage, mais absolument évidente.
J'entends ce que vous dites et je pense nécessaire d'apporter une clarification. Il n'est pas ici question de permettre à toutes les associations d'intenter des actions en justice. La disposition prévue au deuxième alinéa de l'article 1er ter B ne vise qu'à permettre aux associations de protection de l'enfance de signaler des contenus à la place des mineurs. Une seule association de protection de l'enfance étant actuellement reconnue d'utilité publique, il est proposé, avec cet amendement, de supprimer cette condition, afin que toute association déclarée depuis au moins cinq ans à la date des faits et ayant pour objet statutaire la protection des enfants puisse signaler des contenus, accompagner les mineurs et prévenir leurs parents.
Mme la rapporteure a tout à fait raison de préciser les termes de l'article 1er ter B qui, en l'état actuel, prévoit en fait quatre conditions cumulatives : la reconnaissance d'utilité publique, le fait que l'association soit déclarée depuis au moins cinq ans, que son objet statutaire comporte la protection des enfants et qu'elle soit saisie par un mineur. Dans ces conditions, il me semble que l'on pourrait supprimer la première de ces conditions, les trois autres constituant un filtre suffisant.
… puisque cela implique qu'elle poursuive un but d'intérêt général, qu'elle ait une influence ou un rayonnement dépassant le cadre local, qu'elle compte au moins 200 adhérents, et qu'elle présente un fonctionnement démocratique et une solidité financière tangible. Remplir l'ensemble de ces conditions n'a rien de facile, et l'exiger dans le cadre de l'article 1er ter B aurait pour conséquence de restreindre considérablement son champ d'application.
La Commission adopte les amendements.
Elle examine, en discussion commune, l'amendement CL16 de Mme Emmanuelle Ménard et CL53 de la rapporteure.
L'amendement CL16 vise, à la seconde phrase de l'alinéa 2, à supprimer les mots : « , si cela n'est pas contraire à son intérêt, » qui, à mon sens, excluent les parents ou les représentants légaux des enfants mineurs. Or, les parents étant évidemment responsables de leurs enfants, il est incompréhensible, voire choquant, qu'une association qui détecterait des propos écrits par un mineur, et considérés comme haineux, soit la seule juge pour décider si les parents de ce mineur doivent en être informés ou non.
J'estime que l'association a vocation à soutenir les parents ou les représentants légaux plutôt qu'à les écarter. Au-delà de la suppression des propos posant problème, il y a tout un travail éducatif à effectuer auprès du mineur les ayant tenus sur internet, et les parents ont toute leur place dans ce travail. S'ils n'en ont pas conscience, ils doivent justement y être sensibilisés, et ce n'est pas en les écartant qu'on peut le faire.
J'entends ce que vous dites, madame Ménard, mais j'appelle votre attention sur le fait que l'article 1er ter B ne concerne pas l'enfant auteur de contenus haineux, mais l'enfant victime qui demanderait à bénéficier de l'accompagnement d'une association. La disposition que vous souhaitez supprimer a été ajoutée par le Sénat, qui estimait qu'il fallait laisser à l'association saisie le soin de déterminer si l'intérêt de l'enfant pouvait éventuellement justifier que les parents ne soient pas informés. Cette préoccupation me paraît tout à fait fondée quand c'est la vie affective de l'enfant qui est en jeu – je pense notamment à un enfant qui n'aurait pas fait son coming out – et, plus généralement, quand la situation nécessite d'être gérée en douceur par des personnes compétentes pour le faire.
C'est pourquoi je vous propose, avec l'amendement CL53, une rédaction intermédiaire permettant de préserver l'intérêt de l'enfant sans déresponsabiliser les parents. Elle consiste, à la seconde phrase de l'alinéa 2, à substituer aux mots : « si cela n'est pas contraire à son intérêt » les mots : « selon des modalités adaptées à l'intérêt de l'enfant ». Cela permet de maintenir dans leurs attributions respectives à la fois les parents et les associations, qui peuvent continuer à veiller à l'intérêt de l'enfant.
Je vous demande donc de retirer votre amendement pour vous rallier à celui que je viens de présenter ; à défaut, j'émettrai un avis défavorable.
À vous entendre, on a l'impression qu'il faut tout faire pour que les enfants puissent se préserver de leurs parents, en particulier quand ils ne leur ont pas tout révélé de leur vie affective…
Or il me semble que c'est la moindre des choses que les parents soient informés de ce qui arrive à leurs enfants, a fortiori quand ils sont victimes. Les parents n'ont-ils pas pour rôle de protéger leurs enfants ? En tout état de cause, ce n'est pas à une association que doit être confiée en priorité la mission consistant à protéger un enfant victime de harcèlement ; les parents doivent être les premiers prévenus pour le réconforter, le consoler, l'encadrer et le protéger. À titre personnel, je serais terriblement choquée et peinée si j'apprenais que mon enfant a été harcelé sur internet et qu'on ne m'a pas tenue informée au motif qu'il pouvait souhaiter ne pas tout dire à ses parents. Faire un peu confiance à la cellule familiale pour savoir ce qui est bon pour un enfant victime de harcèlement sur internet, cela me paraît être la moindre des choses !
Pour ma part, je suis défavorable à ces deux amendements, pour deux raisons différentes.
Je ne suis pas d'accord avec vous, madame Ménard, car j'estime qu'il y a des cas dans lesquels l'association n'a pas à informer les représentants légaux. C'est actuellement déjà le cas lorsqu'une mineure doit recourir à une contraception d'urgence. Il est alors justifié qu'elle soit placée dans une sorte de sphère lui garantissant que ses parents ne seront pas informés de sa sexualité ou d'autres éléments de sa vie affective. Si on fait confiance à une association pour signaler des contenus, on doit aussi lui faire confiance pour mettre en place autour de l'enfant la sphère que je viens d'évoquer.
Je ne suis pas non plus tout à fait d'accord avec votre rédaction, madame la rapporteure, car la précision « si cela n'est pas contraire à son intérêt » peut conduire, par exemple dans le cas d'un coming out non fait, à ce qu'une association estime qu'il vaut mieux informer le représentant légal alors même que le mineur concerné peut très bien préférer que ses représentants légaux ne soient pas informés.
Pour ces raisons, en tant que parent, j'estime qu'il est préférable de laisser le texte en son état actuel.
Notre groupe estime que la famille doit être prévenue par défaut, et que c'est seulement si cette information est contraire à l'intérêt de l'enfant qu'elle ne doit pas l'être. Certes, madame Ménard, dans 99,99 % des cas, la famille sera une cellule protectrice à l'intérieur de laquelle l'enfant n'aura rien à craindre. Cependant, il est de notre rôle de législateur que d'imaginer ce qui pourrait se passer dans les autres cas, même s'ils ne représentent que 0,01 % des situations.
Dans tous les cas, la décision devra être prise en fonction de l'intérêt de l'enfant, ce qui me paraît satisfaire aux deux remarques formulées par M. Latombe.
Je suis d'accord avec vous pour dire qu'il faut envisager ce qui peut se passer dans 0,01 % des cas. Mais qui va prendre la décision d'informer ou non la famille ? Si c'est le juge, il n'y a pas de problème, mais de quel droit une association déciderait que la famille doit être mise à l'écart ? Cela ne me semble pas normal.
Avec la rédaction que vous proposez, madame la rapporteure, l'association informerait dans tous les cas les représentants légaux, selon des modalités variant en fonction des circonstances – on peut imaginer, par exemple, qu'elle le fasse avec un décalage de quelques semaines ou quelques mois. Cette rédaction ne convient donc pas si votre objectif est que l'enfant soit placé dans une sphère lui permettant d'éviter que ses parents soient informés.
Dans la rédaction actuelle du texte, l'association informe le mineur et, « si cela n'est pas contraire à son intérêt, ses représentants légaux de ladite notification ». Le fait de procéder par exception est plus protecteur pour le mineur. Il ne faut donc pas modifier cette rédaction.
Il est important que les parents ne soient pas dessaisis de leurs responsabilités. Cependant, il n'est pas question que l'association se voie confier une quelconque autorité sur le mineur qui pourrait la conduire à exercer une sorte de tutelle : il ne s'agit que d'effectuer une notification, et les situations pouvant justifier que cette notification soit faite exigent qu'elle le soit rapidement, ce qui exclut de mettre en oeuvre toute une procédure comprenant une convocation des parents, du chef d'établissement scolaire, etc. J'insiste sur ce point, le rôle de l'association étant ponctuel et limité, il n'y a pas lieu de craindre que celle-ci se voie confier un rôle consistant à gérer la vie de l'enfant.
En effet, le but de mon amendement n'est pas d'aboutir à ce que les parents soient totalement déresponsabilisés. Si un enfant se trouve dans une situation de danger, ses parents doivent, à un moment ou un autre, être informés du fait que quelque chose s'est produit. Cependant, la référence à des modalités « adaptées à l'intérêt de l'enfant » laisse aux associations une grande latitude dans le choix des mesures à prendre et la façon de les mettre en oeuvre pour effectuer cette information.
La Commission rejette l'amendement CL16 et adopte l'amendement CL53.
Puis elle adopte l'article 1er ter B modifié.
Article 1er ter (suppression conforme) (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Sanction des notifications abusives ou malveillantes
La Commission maintient la suppression de l'article.
Chapitre II Devoir de coopération des opérateurs de plateforme dans la lutte contre les contenus haineux en ligne
Article 2 (art. 6-2 et 6-3 [nouveaux] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Obligations de moyens en matière de traitement des notifications de contenus manifestement haineux en ligne
La Commission est saisie de l'amendement de suppression, CL4, de Mme Emmanuelle Ménard.
Comme je l'ai déjà dit, l'article 2 me paraît problématique au regard de la véritable privatisation de notre justice dont il témoigne, et qui ne me semble évidemment pas souhaitable. Je rappelle également que nous avons déjà eu ce débat dans le cadre de l'examen de la loi relative à la lutte contre la manipulation de l'information, qui avait donné lieu à des discussions extrêmement vives en raison du risque d'atteintes portées à la liberté d'expression. Ainsi, en moins d'un an, nous aurons examiné deux textes menaçant de mettre en péril la liberté d'expression telle qu'elle est actuellement définie en France.
Si l'intention du présent texte est louable, sans doute lui manque-t-il quelques garde-fous. C'est particulièrement le cas à l'article 2, dont certaines dispositions laissent entendre que la taille des plateformes en ligne aurait une incidence sur le caractère plus ou moins grave des propos considérés haineux. Or insulter quelqu'un sur Facebook ne me paraît pas moins grave que de le faire sur des blogs plus confidentiels. Quand il s'agit de propos manifestement haineux, je ne vois pas ce qui justifie de limiter la protection des victimes aux plateformes les plus importantes. C'est pourquoi je propose de supprimer l'article 2.
Je suis défavorable à cet amendement. L'article 2 a pour objet de mettre en oeuvre des obligations de moyens – des moyens exigeants et conséquents – à la charge des grandes plateformes. Il ne s'agit pas d'instaurer des barrières qui empêcheraient la création et le développement de nouvelles plateformes, mais bien, pour celles qui existent déjà et brassent des contenus de manière massive, de faire en sorte qu'elles mettent en oeuvre des moyens de traitement adaptés à leur nombre d'utilisateurs.
Ma position n'est pas celle que vous venez de m'attribuer, madame la rapporteure. Je pense vraiment que votre loi va créer des barrières à l'entrée, et que l'un des intérêts de l'opérabilité est aussi d'atténuer l'incidence de ces barrières. Confier aux plateformes la censure des contenus va avoir pour conséquence que les nouveaux entrants, qui ne seront pas dotés des mêmes capacités que les grandes plateformes, vont se trouver obligés de leur sous-traiter cette responsabilité.
Il existe aujourd'hui des banques d'images appartenant à Facebook et à Twitter, qui vont ensuite servir aux nouveaux entrants. Le jour où ces nouvelles plateformes auront pris trop de place, les grands opérateurs leur couperont l'accès aux systèmes de modération, ce qui reviendra à instaurer des barrières à l'entrée. Vous m'avez prêté des propos tout à fait opposés à ma véritable position, et je me devais de rectifier cette erreur.
La Commission rejette l'amendement.
Elle en vient à l'amendement CL54 de la rapporteure.
En cohérence avec ce que nous avons voté à l'article 1er, l'amendement CL54 réintroduit les moteurs de recherche dans le champ d'application du texte, d'où ils avaient été retirés par le Sénat. Par ailleurs, il supprime la possibilité, ajoutée par le Sénat, de permettre au CSA d'attraire dans son champ tout site acquérant en France un rôle significatif pour l'accès du public aux contenus en ligne.
Cette rédaction paraissait poser de sérieuses difficultés sur les plans constitutionnel et conventionnel. En effet, la Commission européenne préconise de veiller au ciblage et au caractère proportionné des mesures que nous proposons d'instaurer au moyen de ce texte.
La Commission adopte l'amendement.
En conséquence, les amendements CL3, CL31 et CL10 tombent.
La Commission adopte les amendements rédactionnels CL55 et CL56 de la rapporteure.
Elle examine l'amendement CL41 de M. Philippe Latombe.
L'amendement CL41 a pour objet de préciser qu'on ne peut laisser des algorithmes s'occuper de la régulation et de la censure des contenus. En substituant aux mots : « et, le cas échéant, technologiques proportionnés », les mots : « , le cas échéant à l'aide de technologies proportionnées », on affirmerait que les algorithmes constituent uniquement une aide, mais ne sont pas décisionnels en eux-mêmes, toute décision ne pouvant se prendre qu'en recourant à un être humain. Cela éviterait ainsi que certains contenus « gris » se trouvent systématiquement retirés dans le cadre de la censure exercée par les plateformes.
Cet amendement me paraît satisfait. Je rappelle que la rédaction votée en commission des Lois en première lecture faisait état des « moyens humains ou technologiques ». Dans l'hémicycle, sur proposition de notre collègue Dunoyer, nous avons modifié cette rédaction en abandonnant la conjonction « ou » au profit de « et » et en écrivant donc « et, le cas échéant, technologiques », afin de ne pas retenir le principe d'un traitement purement algorithmique, mais au contraire le recours à des moyens humains « et, le cas échéant, technologiques » – en soutien. Je préfère en rester à cette rédaction qui a été votée par l'Assemblée en première lecture, et qui répond au souhait que vous formulez.
Votre amendement étant satisfait, je vous demande de le retirer et j'émettrai à défaut un avis défavorable.
Si on parle des moyens humains « et, le cas échéant, technologiques proportionnés », cela signifie qu'en l'absence de moyens humains, on peut recourir aux moyens technologiques. En d'autres termes, il suffit que l'opérateur ne mette pas de moyens humains en oeuvre et recoure à des algorithmes.
En revanche, si on écrit : « , le cas échéant à l'aide de technologies proportionnées », cela fait bien apparaître le fait qu'il y a des moyens humains, et que les algorithmes ne sont là que pour aider. Votre rédaction, avec laquelle je n'étais déjà pas d'accord en première lecture, laisse la possibilité aux plateformes de recourir aux algorithmes dès lors qu'elles prétendent ne pas disposer de moyens humains suffisants.
C'est une question de syntaxe et de logique : l'expression « le cas échéant » indique bien qu'en l'absence des deux premières propositions, on recourt à la troisième.
Je soutiens la proposition de M. Latombe, même s'il s'agit d'un amendement de repli. En vérité, on sait bien, et les plateformes aussi le disent, qu'il est impossible d'assurer une modération humaine pour l'ensemble des interactions qui se déroulent sur ces plateformes. D'ores et déjà, de fait, des algorithmes sont utilisés et la proposition de loi va encourager cette tendance.
On pourrait aussi s'interroger sur les personnes exerçant ces fonctions de modération, en particulier sur la formation qu'elles ont reçue au préalable et sur les conditions dans lesquelles elles travaillent. En l'occurrence, on le sait, elles sont problématiques à de nombreux égards. Par ailleurs, et alors même qu'il s'agit ici de domaines aussi sensibles que la liberté d'expression ou encore les discriminations, aucune garantie n'est apportée, aucun protocole n'existe pour vérifier que les quelques personnes affectées au contrôle de millions d'interactions ont effectivement la capacité d'en juger.
Tous ces éléments mettent en lumière le non-sens et l'inutilité de ce que vous êtes en train de faire : en n'abordant pas la question du fonctionnement de cette économie, de cette industrie d'internet, vous passez à côté de l'essentiel. Vous vous donnez bonne conscience à peu de frais mais, en réalité, vous ne réglez pas le problème.
Monsieur Latombe, « le cas échéant », cela veut dire « si nécessaire ». Les plateformes mettent en oeuvre des moyens humains et, si nécessaire, technologiques. L'amendement, je le répète, est donc satisfait. Je maintiens mon avis défavorable, puisque, si j'ai bien compris, vous ne le retirez pas.
La Commission rejette l'amendement.
Elle adopte l'amendement rédactionnel CL57 de la rapporteure.
La Commission en vient à l'amendement CL36 de M. Philippe Latombe.
Si les plateformes doivent retirer un contenu vingt-quatre heures après le signalement, il faut qu'elles traitent les contestations liées à ce retrait ou non-retrait dans le même délai et qu'elles en expliquent les motifs, pour avoir une base en vue d'une contestation en justice. Il n'y aura pas de problème particulier pour les contenus manifestement haineux, puisqu'il suffira de dire qu'ils ont été retirés parce qu'ils contrevenaient à telle ou telle disposition visée à l'article 1er du texte, mais, pour les contenus « gris », il faudra donner des motifs plus précis. Si l'on veut rétablir l'équilibre du texte et préserver un minimum de liberté d'expression, il faut permettre aux utilisateurs de contester la décision des plateformes dans les vingt-quatre heures, et non pas sans qu'un délai soit fixé. Dans le texte, il est simplement fait mention de dispositifs permettant de contester la décision. Dans la mesure où la plateforme doit retirer le contenu dans les vingt-quatre heures, la réponse à une contestation doit être fournie dans le même délai : un parallélisme s'impose.
Il en va de même en ce qui concerne les motifs : dès lors qu'il faut un motif pour signaler un contenu, la décision prise par la plateforme doit, elle aussi, être motivée, de manière à ce que le motif avancé puisse être utilisé si la personne concernée conteste la décision en justice.
D'abord, en ce qui concerne le motif, ce que vous proposez est déjà prévu dans le texte que nous avons adopté en première lecture, et la disposition a été maintenue par le Sénat. Ensuite, un délai de vingt-quatre heures accordé pour traiter un recours interne peut apparaître comme trop court, car la procédure peut nécessiter des échanges entre les parties prenantes. Je ne pense pas qu'il soit nécessaire d'encadrer le processus de réponse en imposant un délai de vingt-quatre heures. Avis défavorable.
La Commission rejette l'amendement.
Elle est saisie de l'amendement CL40 de M. Philippe Latombe.
À l'article 1er, vous avez réintroduit, tout en admettant que cela rendait la loi bavarde, la possibilité de contester en référé une décision de retrait. L'idée, avec cet amendement, dans la suite du précédent, est de confier la compétence aux tribunaux de grande instance mentionnés à l'article D. 211-6-1 du code de l'organisation judiciaire. Comme ce sont eux qui statuent en matière de propriété intellectuelle, notamment, ils ont davantage l'habitude de traiter de tels sujets. Ainsi, les décisions seraient plus fondées.
Défavorable. Ces tribunaux ne sont pas ceux qui sont compétents en matière de liberté d'expression.
La Commission rejette l'amendement.
Puis elle adopte l'article 2 modifié.
Article 3 (art. 6-3 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Obligations de moyens en matière d'information, de transparence et de coopération avec les autorités publiques compétentes
La Commission adopte l'amendement de cohérence CL58 de la rapporteure.
Elle examine l'amendement CL42 de M. Philippe Latombe.
L'article 3 dispose que les plateformes doivent mettre à la disposition des utilisateurs une information facilement accessible s'agissant notamment des modalités de modération – à travers les conditions générales d'utilisation (CGU). L'objet de l'amendement CL42 est de permettre aux utilisateurs, face à des CGU qui ne seraient pas assez claires, d'obtenir des explications en en appelant à l'autorité administrative visée au chapitre III, en l'occurrence le CSA. L'idée est de rendre les choses beaucoup plus claires en cas de difficultés d'interprétation. On sait que les plateformes ont tendance à proposer des CGU qui ne sont pas assez claires, voire à tout faire pour qu'elles ne le soient pas du tout. Il s'agit donc, à travers cet amendement, de renforcer le rôle du CSA en permettant à celui-ci de se prononcer si un utilisateur considère que les CGU ne donnent pas une information claire.
Toute personne peut informer et saisir le CSA. Si nous adoptions votre amendement, qui permet la saisine uniquement sur le fondement de cet alinéa, cela créerait un a contrario pour le reste des dispositions. Demande de retrait ; à défaut, avis défavorable.
Je retire mon amendement, mais vous devriez garder l'idée en tête, car il faut se ranger du côté de l'utilisateur. On l'a vu avec les banques et les assurances, notamment, il a fallu confier à des organismes de régulation le soin de viser les notices d'information, car elles n'étaient pas très claires. Les établissements ont tendance à aller aussi loin qu'ils le peuvent. Quand on leur dit qu'ils doivent faire simple et clair, ils s'arrangent pour que ce soit simple et clair de leur point de vue, mais il n'en va pas toujours de même pour l'utilisateur. Il faut donc ouvrir la possibilité d'obtenir l'avis du CSA, de manière à ce que l'interprétation des CGU soit très claire ou, à tout le moins, que le Conseil les vise. Je retire mon amendement dans l'idée de le retravailler pour éviter l'a contrario, mais il faut que nous ayons un dispositif permettant de clarifier les choses pour les utilisateurs.
L'amendement est retiré.
La Commission est saisie de l'amendement CL24 de M. M'Jid El Guerrab.
Cet amendement vise à donner une périodicité – en l'occurrence tous les trois ans – à la réalisation d'un compte rendu des actions menées par les opérateurs de plateformes en ligne en matière de lutte contre la haine sur internet. L'objectif poursuivi est de contrôler et d'évaluer étroitement le dispositif instauré par l'article.
Le choix a été fait de ne pas préciser de délai et, ce faisant, de laisser de la flexibilité au CSA pour déterminer la périodicité de ces informations. Par ailleurs, trois ans, cela me semble extrêmement long, notamment dans le domaine du numérique.
La Commission rejette l'amendement.
Elle en vient à l'amendement CL30 de M. Ugo Bernalicis.
Nous proposons de supprimer, à l'alinéa 6, la référence au respect du secret des affaires, qui est souvent un alibi pour ne pas mener jusqu'au bout des procédures.
La référence à la notion de secret des affaires est nécessaire. Il s'agit de faire obstacle, non pas au contrôle du CSA, mais à la publicité des informations lorsque celle-ci pourrait être préjudiciable.
D'un point de vue purement légistique, il ne sert à rien de rappeler dans une loi qu'on va en respecter une autre. Je ne vois donc pas quelle plus-value apporte le fait de dire que les dispositions de cet article s'appliqueront dans le respect de la loi relative à la protection du secret des affaires, à moins de vouloir être bavard, ou encore d'insister politiquement sur le fait que le secret des affaires est quelque chose d'important, voire de déterminant.
Pour nous, le secret des affaires est quelque chose qui peut s'entendre, certes, mais nous ne plaçons pas la frontière exactement au même endroit. C'est d'ailleurs la raison pour laquelle nous avons déposé, dans le cadre de l'ordre du jour réservé au groupe de La France insoumise, une proposition de loi relative aux lanceurs d'alerte, dans laquelle nous ne faisant pas autant référence que cela au secret des affaires.
La Commission rejette l'amendement.
Elle est saisie de l'amendement CL8 de Mme Marie-France Lorho.
La mention d'une « utilisation civique et responsable » à l'occasion de l'inscription d'un mineur à l'un des services concernés donne une connotation moraliste. La loi française est, non pas un outil pédagogique, mais un cadre définissant la légalité des actes. Il revient aux dépositaires de l'autorité parentale de bénéficier des indications concernant les conditions d'utilisation du service impliqué. Les utilisateurs d'une plateforme doivent pouvoir prendre connaissance des conditions d'utilisation relatives à la communauté et avoir conscience des informations mises à la disposition de celle-ci pour en faire l'usage qu'ils souhaitent, en toute connaissance de cause. Il y va du respect de la liberté d'expression, qu'aspire à défendre l'amendement CL8.
Je ne partage pas votre point de vue sur cette disposition qui a été introduite sur l'initiative de la commission des Affaires culturelles et de l'éducation en première lecture. Elle revêt vraiment une dimension éducative et participe à la mission générale de prévention de la haine en ligne, à laquelle doivent contribuer les grandes plateformes. Le libre arbitre des parents et des mineurs n'est pas remis en cause, dans la mesure où il s'agit seulement d'une information et d'une sensibilisation.
La Commission rejette l'amendement.
Elle examine les amendements identiques CL59 de la rapporteure, CL34 de Mme Danièle Obono, CL37 de M. Philippe Latombe et CL44 de Mme Caroline Abadie.
J'ai évoqué dans mon propos introductif cette disposition, qui a été introduite par le Sénat à travers un amendement de M. Retailleau. J'ai entendu les commentaires des sénateurs concernant la protection de la liberté d'expression et la ligne de crête que nous essayons tous de trouver. Or le Sénat a adopté une disposition qui est, à mon sens, parfaitement attentatoire à la liberté d'expression, puisqu'elle permet de supprimer des comptes d'utilisateurs, et non pas seulement des contenus individuels, sur le fondement non d'infractions constituées mais d'un « faisceau d'indices » reposant sur le signalement de ces comptes. Concrètement, cela revient à donner tout pouvoir à ceux qui se livrent à des raids numériques pour nuire à certains utilisateurs et obtenir la fermeture de leur compte, alors que nous avons, pour notre part, essayé de sanctionner ceux qui signalent abusivement, avec l'objectif d'anéantir le phénomène des raids numériques.
Cette disposition explique pourquoi, dans mon propos introductif, je me suis interrogée sur ce qu'était in fine la position du Sénat : son adoption révèle une véritable contradiction dans l'approche de la haine en ligne. Je vous propose donc de la supprimer pour redonner davantage d'équilibre et de cohérence à notre texte.
L'amendement CL34 vise, lui aussi, à supprimer l'alinéa 11. Nous nous appuyons notamment sur les critiques d'organisations telles que la Quadrature du Net, qui estiment que cette nouvelle disposition donne des pouvoirs supplémentaires et disproportionnés aux plateformes en leur demandant de déterminer seules le faisceau d'indices indiquant « une contravention sérieuse aux infractions » visées. En outre, cela revient, de manière maladroite, à considérer pour acquise la nécessité d'avoir un compte pour s'exprimer sur une plateforme, ce qui n'est pas le cas. Il convient donc de supprimer cette disposition.
J'ai envie de dire que, sur ce coup-là, les sénateurs se sont complètement loupés ! Clairement, il n'y a pas de logique dans ce qu'ils ont fait. Toutefois, je ne suis pas d'accord avec vous sur un point, madame la rapporteure. Vous avez dit, dans votre propos liminaire, que la démarche du Sénat était purement politique. Je ne pense pas que ce soit le cas en ce qui concerne l'article 1er. Les sénateurs avaient vraiment envie de changer les choses, et je partageais en partie leur position. L'alinéa 11 de cet article, en revanche, résulte très clairement d'un coup politique de M. Bruno Retailleau. Effectivement, la disposition est totalement attentatoire aux libertés et, en plus d'être liberticide, elle va favoriser les raids numériques. Elle sera donc tout à fait contre-productive. C'est au juge judiciaire qu'il doit revenir de prendre une telle décision. Ce sont des motivations politiques qui ont conduit un certain nombre de sénateurs à adopter cette disposition ; il convient de la supprimer immédiatement, étant entendu que, de toute façon, elle n'est pas conforme à la Constitution.
Comme cela vient d'être dit, ce que nous proposent les sénateurs est incohérent. C'est à se demander comment la disposition est parvenue jusqu'ici. Alors que, tout au long des débats sur le texte, le Sénat s'est prévalu de la liberté d'expression, il a interdit à quelqu'un de détenir un compte au seul motif que de nombreuses notifications auraient été reçues, ce qui constituerait un « faisceau d'indices » – sachant, par ailleurs, qu'il n'y a plus d'infraction, puisque les sénateurs l'ont supprimée à l'article 1er.
Nous souhaitons, nous aussi, supprimer l'alinéa 11 par l'amendement CL44. Nous aussi nous sommes soucieux de l'équilibre du texte. Nous avions ajouté de nombreuses dispositions en première lecture concernant la notification, notamment des procédures plus strictes, la possibilité d'un recours, de l'information, mais aussi la sanction des abus. Or il n'y a plus aucune contrepartie à la suppression des comptes.
L'alinéa 11 résulte effectivement de l'adoption par le Sénat d'un amendement prévoyant que les opérateurs doivent mettre en place les moyens nécessaires pour supprimer les comptes ayant fait l'objet de notifications par plusieurs personnes. J'entends les arguments qui viennent d'être développés par tous nos collègues. Il y a là, manifestement, une atteinte à la liberté d'expression, c'est tout à fait indéniable. Je ne sais pas quelle était l'intention exacte du Sénat. Peut-être la disposition visait-elle à lutter contre les faux comptes, pilotés notamment de l'étranger ?
La Commission adopte les amendements.
Elle est saisie de l'amendement CL25 de M. Paul Molac.
Afin de ne pas porter atteinte de manière abusive à la liberté d'expression, il est indispensable d'exiger que les opérateurs fournissent des études d'impact. Cela permettra de mieux encadrer l'utilisation des dispositifs d'intelligence artificielle, dans le respect des impératifs de l'État de droit.
Il est déjà prévu à l'article 2 que les opérateurs doivent mettre en place les procédures et moyens humains et, le cas échéant, technologiques proportionnés pour satisfaire à l'obligation de retrait en vingt-quatre heures et prévenir les risques de retrait injustifié, notamment du fait des dispositifs d'intelligence artificielle. L'amendement me paraît donc satisfait, et j'en demande le retrait ; à défaut, avis défavorable.
La Commission rejette l'amendement.
Elle en arrive à l'amendement CL26 de Mme Frédérique Dumas.
Si l'on veut voir progresser l'« éthique digitale » s'agissant du comportement des plateformes, il est fondamental de permettre le renforcement de toute forme d'automodération viable, comme cela est possible sur de nombreux forums et plateformes à taille humaine qui peuplent le web depuis ses débuts, et qui reposent sur une modération réalisée directement par la communauté, impliquée et généralement bénévole. La présente proposition vise à permettre aux utilisateurs de plateformes mondiales de migrer vers d'autres services équivalents mais décentralisés, tout en continuant d'échanger avec les utilisateurs d'autres plateformes. C'est donc bien une liberté supplémentaire qui est proposée. Il s'agit de redonner sa chance à chacun. L'objectif serait atteint en obligeant les plateformes géantes qui hiérarchisent les contenus à des fins commerciales, telles que déjà définies en droit français, à devenir interopérables.
Nous aurons de nouveau un débat sur la question à l'article 4, puisque le Sénat y a introduit des dispositions relatives à l'interopérabilité. Je soutiens pleinement la position exprimée tout à l'heure par notre collègue George Pau-Langevin, choquée par la présence dans le texte de telles dispositions qui reviennent à dire aux victimes, dans un texte visant à lutter contre la haine en ligne, que la solution consiste pour elles à changer de lieu.
Je ne suis pas opposée à l'interopérabilité, mais ce n'est pas l'objet de ce texte. Je précise d'ailleurs, monsieur Latombe, que je ne souhaite pas nécessairement renvoyer le traitement de la question à l'échelon européen. D'autres textes arriveront prochainement, dans lesquels nous aborderons de manière globale la régulation du numérique en France ; la question de l'interopérabilité pourra être évoquée dans ce cadre. Le faire ici, dans une proposition de loi relative à la haine en ligne, me semble être un mauvais message envoyé aux victimes. C'est pourquoi je reste défavorable à l'intégration de ces dispositions dans le texte.
Madame la rapporteure, vous ne faites que confirmer ce que je disais dans mon propos liminaire, même si, à ce moment-là, vous faisiez non de la tête. À travers votre amendement CL66, vous voulez supprimer l'alinéa 15 de l'article 4, qui traite de l'interopérabilité.
Nous avons déjà débattu de la question en séance, lors de la première lecture. Vous nous aviez dit alors, comme vous venez de le faire, que ce n'était pas l'objet du texte, qu'il fallait traiter du problème ailleurs. Les sénateurs, quant à eux, nous disent que cela peut être l'objet de cette proposition de loi, qu'il faut peut-être que nous l'examinions. Je note à ce propos que le Sénat a jugé qu'il était possible d'inscrire la disposition dans le texte, ce qui nous permet d'en débattre, alors que vous nous aviez dit, en première lecture, qu'elle était à la limite de l'irrecevabilité – il faudra, un jour ou l'autre, que nous nous mettions d'accord avec le Sénat sur ce qui est recevable et ce qui ne l'est pas.
Quoi qu'il en soit, les sénateurs ont inscrit dans le texte que le CSA « encourage » l'interopérabilité. C'est beaucoup plus doux que ce que nous proposions en première lecture et que le dispositif de l'amendement CL26 de Mme Dumas, qui introduit une obligation. Peut-être aussi faut-il aborder la question non pas à l'article 3 mais à l'article 4, comme l'ont fait les sénateurs. Il n'en demeure pas moins que nous devons commencer à faire accepter l'interopérabilité aux plateformes. Pour ce faire, laissons à tout le moins au CSA la possibilité d'encourager l'interopérabilité. Ce n'est qu'un des moyens d'y parvenir, de même que les autres dispositions du texte ne sont pas – vous le disiez dans votre propos liminaire – l'alpha et l'oméga de la lutte contre la haine sur internet.
Mme Obono a parfaitement raison : ce n'est pas pour rien que Mastodon a vu le jour. Ce réseau social a été créé par des personnes LGBT qui étaient moquées, voire opprimées sur les réseaux traditionnels tels que Twitter et Facebook. Promouvoir l'interopérabilité, c'est revenir à ce qui était l'essence d'internet. Il faut absolument que nous l'intégrions dans le texte – peut-être pas à l'article 3, en la rendant obligatoire, mais on doit au minimum laisser au CSA la possibilité de la favoriser doucement, tranquillement. Rien ne vous empêche, ensuite, de renvoyer à un texte européen. S'il vous plaît, n'abandonnez pas l'interopérabilité en rase campagne au motif que ce texte n'est pas adéquat pour aborder la question et qu'il faut attendre que l'Union européenne se prononce. À ce compte-là, on aurait pu vous dire à vous aussi, à propos de cette proposition de loi, qu'il fallait attendre un texte européen.
Je rejoins M. Latombe. J'aimerais vraiment que nous avancions dans ce débat, mais aussi que nous évitions les contresens. Pour cela, peut-être convient-il d'éclairer certains de nos collègues quant à l'origine des pratiques dites de safe space. Celles-ci ne sont pas apparues avec internet ; elles sont l'un des acquis, dans la vie réelle, des luttes et des mouvements féministes, LGBT ou encore antiracistes. Elles participent à la libération des personnes qui sont victimes au quotidien de violences et de discriminations. Elles sont aussi vieilles que l'autoémancipation. Les pratiques de safe space sont également des armes. Il s'agit, non pas de dire aux personnes concernées ce qu'elles doivent faire ou ne pas faire, mais de les rendre autonomes, de leur permettre de choisir ce qu'elles veulent faire et comment elles veulent le faire. Je vous invite donc à vous renseigner un peu pour savoir de quoi il est question ici.
Je suis choquée de l'insulte qui est faite à ces personnes, qui sont encore aujourd'hui des victimes ; elles ont développé ces pratiques et veulent les utiliser. Il faut les aider à être plus autonomes et à reprendre un peu le contrôle – pas totalement, bien sûr, car ce n'est pas l'interopérabilité qui va renverser complètement le monopole des plateformes et de l'économie d'internet, mais elle peut leur donner un petit levier. Personne n'a jamais prétendu que cela allait tout révolutionner – nous n'avons pas cette prétention –, mais cela permet d'enfoncer un coin, y compris en ce qui concerne le fonctionnement même d'internet, dont nous sommes un certain nombre à vous parler depuis le début.
Le système repose sur la concentration et le monopole. Du fait également de l'attractivité de ces espaces, les gens sont obligés d'y rester et, ainsi, de subir encore et encore, y compris des agressions. À travers l'interopérabilité, il y va donc aussi de la compréhension du fonctionnement même d'internet et des mécanismes qui produisent et reproduisent sur internet des situations extrêmement problématiques. C'est la raison pour laquelle nous devons introduire ce mécanisme.
Nous avons là un véritable point de désaccord, madame la rapporteure : pour vous, cette proposition est contradictoire par rapport à l'esprit de votre texte, alors que, pour nous, elle est complémentaire et permet de donner une arme supplémentaire aux personnes qui sont discriminées et insultées. Nos visions divergent donc ; tant pis ! Nous allons trancher le différend.
La Commission rejette l'amendement.
Puis elle adopte l'article 3 modifié.
Article 3 bis (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Triplement du montant de la peine d'amende encourue en cas de non-coopération avec les autorités publiques
La Commission est saisie de l'amendement CL60 de la rapporteure.
L'amendement CL60 vise à revenir sur une modification apportée par le Sénat, qui inclut les éditeurs dans le champ du texte. La proposition de loi vise exclusivement un certain nombre d'hébergeurs ; il n'y a pas lieu d'y inclure les éditeurs.
La Commission adopte l'amendement.
Puis elle adopte l'article 3 bis modifié.
Chapitre III Rôle du Conseil supérieur de l'audiovisuel dans la lutte contre les contenus haineux en ligne
Article 4 (art. 17-3 [nouveau], 19 et 42-7 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication et 6-1 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Rôle du Conseil supérieur de l'audiovisuel dans la lutte contre les contenus haineux sur internet
La Commission est saisie de l'amendement de suppression, CL6, de Mme Emmanuelle Ménard.
L'article 4 définit un peu plus précisément le rôle du CSA dans le contrôle des propos haineux sur internet. Dénommé « gendarme de l'audiovisuel », il verra donc ses missions renforcées. Il me semble pourtant qu'il devrait être vigilant à ne pas dépasser les limites que sa compétence lui donne. Or la proposition de loi va lui permettre d'élargir ses missions au-delà de la radio et de la télévision puisqu'il contrôlera les plateformes internet.
Le CSA n'est pourtant pas exempte de critiques. Je vous rappelle, à titre d'exemple, que le Conseil d'État vient de le condamner, en novembre dernier, à indemniser la chaîne C8 à hauteur de 1,1 million d'euros, estimant que la sanction qu'il avait infligée à la chaîne était disproportionnée. Donner toujours plus de pouvoirs et de compétences au CSA, instance qui, selon les points de vue, apparaît comme plus ou moins indépendante, me semble superflu, pour ne pas dire non souhaitable.
Avis défavorable, puisque vous proposez de supprimer ce qui constitue un élément clé du dispositif de régulation administrative des obligations de moyens à la charge des plateformes que nous sommes en train de construire.
La Commission rejette l'amendement.
Elle adopte l'amendement de cohérence CL61 de la rapporteure.
La Commission en vient à l'amendement CL32 de M. Jean-Luc Mélenchon.
Il s'agit de rappeler que les poursuites doivent redevenir l'apanage de l'autorité judiciaire. Certes, celle-ci n'a pas la capacité de traiter une masse importante de contentieux faute de moyens. Toutefois, il ne me semble pas judicieux de confier des pouvoirs judiciaires à une autorité administrative dite indépendante, dont le président est nommé par le Président de la République. C'est pourquoi nous proposons qu'en cas de manquement par un opérateur, le CSA n'apportant pas toutes les garanties, l'autorité judiciaire peut engager une procédure de sanction.
L'architecture du dispositif est la suivante : la première partie porte sur un mécanisme qui est sous l'office du juge ; la seconde, sur les obligations de moyens, qui sont des éléments de régulation administrative placés sous le contrôle du CSA, dont les décisions sont, comme toutes les décisions d'ordre administratif, susceptibles d'être contestées devant le Conseil d'État. Avis défavorable.
Vous avez raison dans votre propre logique, mais j'ai raison dans la mienne. Vous voulez placer le curseur et les obligations des uns et des autres sur le plan uniquement administratif ; nous disons que les obligations de moyens n'ont pas à être mises dans les mains d'une autorité extrajudiciaire, en l'espèce le CSA. La réalité, c'est que cette instance n'a pas les moyens aujourd'hui – et elle ne les aura pas davantage demain – de remplir cette mission. Les lois s'incarnent dans des pratiques, dans des administrations, des moyens qui sont mis à leur disposition. Ce n'est pas le cas ici.
L'autorité judiciaire n'a pas beaucoup plus de moyens que le CSA, me rétorquerez-vous ; toutes choses étant égales par ailleurs, autant confier cette mission au CSA. Au lieu de cela, vous utilisez une argumentation qui n'emporte pas mon adhésion. En la matière, mieux vaudrait une caractérisation judiciaire plutôt qu'administrative.
La Commission rejette l'amendement.
Elle examine l'amendement CL75 de la rapporteure.
Cet amendement réécrit une disposition que nous avions votée en première lecture, que le Sénat a maintenue, mais qui nécessite d'être davantage explicitée. Il s'agit des éléments qui peuvent être pris en compte par le CSA dans son pouvoir de sanction de la sur-censure d'une plateforme qui aurait un comportement de retrait excessif.
Je vous propose une rédaction plus précise aux termes de laquelle le CSA « peut prendre en compte l'application disproportionnée par l'opérateur des procédures et des moyens humains et, le cas échéant, technologiques (…) conduisant à un retrait excessif des contenus ». Il s'agit donc de ne plus se fonder sur le comportement, comme le prévoyait la précédente rédaction, mais sur l'application disproportionnée des procédures et moyens.
J'espère que vous donnerez des moyens importants au CSA dans le prochain projet de loi de finances, puisqu'il faudra qu'il évalue s'il n'y a pas suffisamment de poursuites ou au contraire s'il y en a trop !
Le texte ne précise pas ce que l'on entend par trop ou pas assez de poursuites. Si l'on utilise un algorithme qui censure large pour éviter des contenus haineux, ce ne sera pas bon, mais si on en utilise un qui ne censure pas assez, ce ne sera pas bon non plus. Comme vous vous apercevez que cette future loi ne sera pas assez opérante, vous essayez d'introduire des dispositifs en amont et en aval, en espérant attraper le contenu haineux. Mais vous n'échappez pas à la règle selon laquelle il faut des moyens pour qu'une loi soit appliquée. Or que vous vous reposiez sur les plateformes, qui déploient des moyens algorithmiques, ou que vous donniez des pouvoirs au CSA, cela ne permettra pas d'atteindre l'objectif – mais pas plus si vous les donnez à l'autorité judiciaire puisque celle-ci n'a pas que cela à faire. Je ne suis donc pas sûr que ce genre de loi fasse avancer le schmilblick ; à défaut, cela fera avancer le contentieux. Cela donnera beaucoup de travail à des gens, mais est-ce bien le but ?
Comme vient de l'indiquer M. Bernalicis, si les plateformes censurent trop cela ne sera pas bon, mais si elles ne censurent pas assez, cela ne marchera pas non plus. De toute façon, il faudra, à un moment ou à un autre, donner au CSA des moyens humains et lui permettre d'avoir accès aux boîtes noires des plateformes. Comment assurer à ces plateformes que le secret des affaires sera bien respecté, sachant que les boîtes noires sont le coeur du modèle économique ? Les ingénieurs du Massachusetts Institute of technology (MIT) ne sont même pas encore au niveau de ce qui existe, comment le CSA pourrait-il avoir des agents compétents ? S'il s'agit uniquement de faire du traitement statistique, il y a eu 3 millions de signalements et 500 000 suppressions :est-ce proportionné ou non ?
Une fois de plus, à cause de cette formule « le cas échéant, technologiques », on se prive de la possibilité d'avoir systématiquement un être humain qui puisse expliquer pourquoi, à l'aide de l'algorithme, il a pris telle décision. Cela risque de créer un problème pour vérifier l'application proportionnée ou disproportionnée de votre texte.
L'article 4 est le plus important de ce texte de loi, le plus novateur, celui qui définit le CSA comme le régulateur des plateformes internet et des réseaux sociaux. En revanche, il pose un problème à cause de l'article 1er. Si les plateformes ne sanctionnent pas assez, elles seront sous le coup de l'article 1er, et si elles sanctionnent de trop, elles seront sous le coup de l'article 4 ! Il est peu vraisemblable qu'elles prendront tout de suite la sanction adéquate en matière de liberté d'expression, sachant que celle-ci peut faire l'objet de diverses interprétations. Je le dis depuis le début de la discussion, ces deux articles déséquilibrent le texte ; c'est l'article 4 que je soutiens.
L'article 1er porte sur la casuistique, c'est-à-dire sur les contenus, tandis que l'article 4 porte sur le systémique et le comportemental.
La Commission adopte l'amendement.
Elle examine l'amendement CL11 de Mme Marie-France Lorho.
J'ai déjà soulevé ici même mon objection quant au quantum de la peine dont la nature juridique me semble particulièrement contestable. Je m'étonne du taux imposé à la sanction, qui n'est pas corrélé à un quelconque élément factuel inhérent à la plateforme ou à la conjoncture. La fixation d'un plafond de sanctions financières proportionnées au chiffre d'affaires n'est pas rationnellement liée à l'infraction poursuivie.
Par ailleurs, il conviendrait de faire preuve d'une attitude prudente quant à ce genre de sanction, le Conseil constitutionnel ayant déjà censuré plusieurs dispositifs où le plafond était calculé en pourcentage du chiffre d'affaires. Il ne faut pas négliger les possibilités de disproportion entre l'infraction et la peine encourue. Ce dispositif comportant des risques juridiques, je propose de le supprimer.
Avis défavorable, la disposition prévue à l'alinéa 9 étant au coeur de la régulation administrative.
La Commission rejette l'amendement.
Elle adopte l'amendement rédactionnel CL62 de la rapporteure.
La Commission est saisie de l'amendement CL5 de Mme Emmanuelle Ménard.
L'article 4 prévoit que la sanction pécuniaire imposée aux plateformes pourrait s'élever à 4 % de leur chiffre d'affaires annuel mondial. Je suis opposée à cette mesure qui me semble totalement aberrante et disproportionnée. Pour une entreprise comme Facebook, cela représente 2 ou 3 milliards d'euros. En Allemagne, l'amende peut atteindre 50 millions d'euros, ce qui est déjà conséquent. Il faut proportion garder : l'excès tue la crédibilité du propos. Je vous rappelle que la proportionnalité est le fondement même de notre justice. Or il est complètement bafoué ici.
Ni le Conseil d'État, ni la Commission européenne n'ont émis de réserve quant à cette sanction qui peut aller jusqu'à 4 % du chiffre d'affaires. Il s'agit d'un système gradué, qui commence par une mise en demeure, la sanction ne pouvant intervenir qu'en cas de manquement à cette mise en demeure. J'ajoute qu'il est expressément prévu dans le texte que le montant de la sanction devra prendre en compte la gravité des manquements commis et leur caractère réitéré.
Je le répète, ce texte n'a pas pour objectif de sanctionner financièrement – il faudrait être face à un cas très grave pour prononcer une sanction à hauteur de 4 % du chiffre d'affaires –, mais bien de faire en sorte que les plateformes se dotent des moyens de lutter contre la haine sur internet, sous le contrôle du CSA.
La Commission rejette l'amendement.
Elle adopte l'amendement rédactionnel CL63 de la rapporteure.
La Commission examine l'amendement CL38 de M. Philippe Latombe.
Je l'ai dit dans mon propos liminaire, je crains que votre texte ne génère des barrières à l'entrée. En donnant aux plateformes le pouvoir à la fois de publier l'information et de la censurer, en tout cas de la modérer, vous leur donnez aussi celui d'empêcher l'émergence de nouvelles plateformes qui n'auront pas les moyens d'effectuer cette modération. Je propose donc de laisser la possibilité à l'utilisateur d'utiliser soit le système de modération de la plateforme, soit celui proposé par un tiers auquel incomberait la totalité des obligations de la plateforme.
Au même titre que l'on peut avoir le choix d'un antivirus ou d'un virtual private network (VPN), je propose de laisser la possibilité à l'utilisateur d'utiliser le système de modération de son choix, qui aurait les mêmes obligations et le même rôle que Facebook ou Twitter, ce qui éviterait que les grandes plateformes soient en situation de monopole en matière de modération.
Je ne vois pas comment vous luttez contre les barrières à l'entrée de cette manière. Qui paiera le système externe de modération du nouvel opérateur ? Ce nouvel opérateur aura son système de modération en interne. S'il doit faire appel à une société extérieure, il faudra qu'il paye la prestation. En fait, vous renforcez les barrières.
Par ailleurs, le texte comporte déjà des dispositions qui répondent à votre préoccupation, s'agissant notamment du devoir de coopération des plateformes. Avis défavorable.
Je n'ai pas parlé de la coopération des plateformes. Ce que je propose, ce sont des systèmes de modération extérieurs aux plateformes, choisis par l'utilisateur.
Des associations ont déjà créé des systèmes de modération, comme cette start-up du sud de la France, dont la rémunération est assurée par de la publicité. Cela permet un système de modération extérieur aux plateformes, cela oblige les plateformes à communiquer dans des standards qui permettent à ces nouveaux entrants d'exister, et cela évite une situation de monopole de Twitter et de Facebook.
La Commission rejette l'amendement.
Elle examine l'amendement CL17 de Mme Emmanuelle Ménard.
Je propose de supprimer, à l'alinéa 14, le mot « proportionné », à défaut de supprimer la totalité de l'article 4.
Je le répète, c'est au juge et non au CSA, aux plateformes et aux opérateurs privés de décider si un contenu est licite ou non, haineux ou non. Toutes les compétences données aux plateformes ou au CSA pour remplacer le pouvoir judiciaire me semblent totalement hors de propos.
Un même propos peut être considéré par Twitter comme étant du harcèlement alors qu'il provoquera les excuses de Facebook. Comment voulez-vous donner cette prérogative à un opérateur privé ou au CSA ? Ce n'est pas le rôle du CSA qui n'est pas le gendarme autoproclamé et ne doit pas, ni aujourd'hui ni demain, être le juge en matière de liberté d'expression. C'est le juge judiciaire qui doit juger de la conformité ou non à la loi d'un propos. Tout le reste me paraît superflu. Bref, je suis fondamentalement opposé à votre texte.
Le CSA ne s'intéresse pas au contenu. Il n'est pas non plus le régulateur des contenus ; il est le régulateur des mécanismes de modération des contenus. Il s'intéresse au nombre de modérateurs, aux informations mises à disposition, aux informations transmises aux autorités judiciaires, mais pas à ce que telle personne a écrit tel jour. Ce n'est pas le rôle qui lui a été fixé dans le texte, et ce ne sera pas non plus son rôle demain. Avis défavorable.
La Commission rejette l'amendement.
Elle adopte successivement l'amendement de précision CL64 et l'amendement rédactionnel CL65 de la rapporteure.
La Commission en vient à l'amendement CL66 de la rapporteure.
L'adoption de cet amendement ferait tomber mon amendement CL39. Pour ma part, je proposais de préciser que les plateformes ne peuvent pas modifier unilatéralement les standards d'interopérabilité, ce qui permettrait d'éviter les sauts technologiques, et de favoriser le libre choix ou la migration. C'est ce qu'avait proposé Mme Frédérique Dumas à l'article 3.
Je pense que vous faites une erreur en n'utilisant pas l'outil de l'interopérabilité dans ce texte, surtout que les sénateurs avaient prévu d'y aller doucement puisqu'ils proposaient que le CSA encourage l'interopérabilité, non qu'il l'impose. Je le répète, Mastodon existe parce que des gens qui ont été harcelés sur les réseaux sociaux ont créé une sorte de bulle dans laquelle ils pouvaient continuer à discuter entre eux, avec de l'automodération. C'est là l'essence même des réseaux sociaux.
Je trouve particulièrement choquant que vous répétiez, comme vous l'avez fait en première lecture, que l'interopérabilité n'est pas le sujet du texte et qu'il sera abordé plus tard. Les sénateurs ne sont pas d'accord avec vous puisqu'ils l'ont introduit dans le texte. L'exposé sommaire de votre amendement CL66 indique qu'« un tel ajout ne semble pas opportun, s'agissant d'une question qui mérite d'être traitée de façon plus globale et à l'échelon européen ». Votre texte même aurait mérité d'être traité de façon plus globale et à l'échelon européen !
L'interopérabilité voulue par les sénateurs est tranquille, si je puis dire. Vous avez beau vouloir réprimer les contenus haineux, les moyens mis en oeuvre ne seront jamais suffisants, qu'il s'agisse de ceux des plateformes ou du CSA. Ce dernier sera bien obligé d'aller voir dans le détail si tel ou tel contenu a été censuré ou non. S'il ne fait qu'en chiffrer le nombre à la louche et qu'il dit au doigt mouillé que ce chiffre semble correct, ce sera aussi utile et efficace que de ne rien faire. On voit bien que la meilleure défense, c'est celle qui permet aux victimes de s'organiser collectivement pour se mettre à l'abri dans des sas de sécurité en attendant que l'algorithme du gros réseau social soit installé.
Tout cela était complémentaire avec votre dispositif. Vous n'en voulez pas, quand bien même il est rédigé de façon à être plus incitatif que coercitif. Dès lors, je me dis que votre objectif est davantage de communiquer sur la sévérité de votre lutte contre les contenus haineux, qui se fracassera contre la réalité et l'impossibilité matérielle de la mener. Dans deux ou trois ans, une mission d'information sera créée pour comprendre pourquoi il existe toujours des contenus haineux alors que nous avons voté une loi. C'est dommage, et je ne sais pas pourquoi on perd notre temps à faire tout cela.
La Commission adopte l'amendement.
En conséquence, l'amendement CL39 de M. Philippe Latombe tombe.
La Commission est saisie de l'amendement CL46 de Mme Caroline Abadie.
Les contenus illicites, dont les contenus haineux, sont souvent davantage rediffusés et beaucoup plus rapidement que les autres. En première lecture, citant en exemple la vidéo de l'attentat de Christchurch, nous avions proposé à l'article 2 une disposition qui avait été adoptée. Le Sénat l'ayant supprimée, nous souhaitons la réintroduire à l'article 4 en confiant cette fois au CSA le soin d'encourager les plateformes à mettre en oeuvre des moyens empêchant la rediffusion ou l'amplification des contenus manifestement haineux.
Il s'agit vraiment ici d'une obligation de moyens et d'un encouragement que le CSA pourrait adresser aux plateformes. Nous essayons de maintenir un équilibre entre la liberté d'expression et la lutte contre les contenus haineux sur internet, en conformité avec l'interdiction d'imposer aux opérateurs une obligation générale de surveillance des informations qu'ils transmettent ou stockent.
Il s'agit là d'une disposition assez sensible. Une obligation de moyens avait été votée en première lecture, selon laquelle les plateformes devaient mettre en oeuvre les moyens appropriés pour empêcher la rediffusion de contenus. On parle ici de ces vidéos qui peuvent être dupliquées à une échelle massive, comme celle de l'attentat de Christchurch que vous avez évoquée. Récemment, l'affaire dite de Noisiel a donné lieu à des centaines de milliers de copies d'une vidéo qui devait disparaître très rapidement des réseaux sociaux mais qui était à chaque fois dupliquée.
Je dois reconnaître qu'on n'a pas encore trouvé aujourd'hui la façon précise de traiter cette question. La Commission européenne est assez dubitative vis-à-vis de cette disposition telle qu'elle a été votée par l'Assemblée nationale. Comme il s'agissait de mettre une empreinte sur ces contenus pour surveiller leur réapparition, le risque était d'engendrer une obligation de surveillance généralisée des contenus.
La proposition que vous faites s'approche de ce qui pourrait être adopté dans la mesure où on passe de l'obligation de moyens à l'encouragement puisqu'il s'agit pour le CSA, dans le cadre de ses prérogatives, d'encourager les plateformes à développer des dispositifs. Néanmoins, la rédaction nécessite d'être retravaillée d'ici à l'examen du texte en séance publique afin d'écarter tout risque d'inconventionnalité. Je vous propose donc de retirer votre amendement.
L'amendement est retiré.
La Commission est saisie de l'amendement CL67 de la rapporteure.
En première lecture, nous avions, à l'initiative du groupe du Mouvement Démocrate et apparentés et de Mme Laure de La Raudière, voté des dispositions complétant les pouvoirs d'investigation du CSA dans le cadre de sa mission de contrôle des opérateurs. Le Sénat a souhaité préciser que ces pouvoirs incluent, en dehors de la réception d'informations, l'accès aux principes et méthodes de conception des algorithmes des opérateurs. Cette précision, qui était couverte par les dispositions générales que nous avions adoptées, pouvait conduire à donner au CSA accès à tous les algorithmes des plateformes, quel que soit l'usage qu'elles en font, et pas seulement à ceux mis en oeuvre aux fins de lutte contre les contenus haineux.
Dans un souci de proportionnalité, l'amendement CL67 limite la portée du dispositif aux seuls besoins de cette lutte.
La Commission adopte l'amendement.
Puis elle adopte l'article 4 modifié.
Article 5 (suppression conforme) (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Renforcement de l'obligation de coopération des opérateurs numériques avec l'autorité judiciaire en matière de lutte contre les contenus illicites
La Commission maintient la suppression de l'article.
CHAPITRE IV
Amélioration de la lutte contre la diffusion de contenus haineux en ligne
Avant l'article 6
La Commission est saisie de l'amendement CL12 de Mme Marie-France Lorho.
Je défends également les amendements CL13 et CL7 qui visent à s'interroger sur la rédaction de certains chapitres et du titre de la proposition de loi.
Le terme de contenus haineux me gêne : la haine n'a pas de définition juridique. Encadrer l'utilisation d'internet en s'appuyant sur des présupposés moraux et non objectifs suppose que le législateur soit détenteur d'une vérité universelle et sans nuance.
Substituer aux mots « contenus haineux » les mots « ne répondant pas aux standards de la communauté » permettrait une adaptation des utilisateurs aux règles des plateformes sur lesquelles ils s'inscrivent. Une telle rédaction permettrait de préserver la liberté des plateformes et de protéger l'utilisateur. Les standards de la communauté sont élaborés afin d'entraîner la suppression des atteintes à une caractéristique protégée juridiquement et définie de façon objective.
Avis défavorable. Nous avons défini à l'article 1er le champ de ces contenus haineux. Il ne s'agit précisément pas de se situer dans le cadre des standards de la communauté – cela impliquerait que la nudité, qui est refusée sur Facebook, devienne un motif de retrait de contenu –, mais bien de se cantonner à l'application de notre proposition de loi et à ce qui, dans notre pays, est considéré comme une infraction au regard de la loi de 1881.
La Commission rejette l'amendement.
Article 6 (art. 6 et 6-4 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Simplification de la procédure de blocage et de déréférencement des sites haineux
La Commission est saisie de l'amendement de suppression CL33 de Mme Danièle Obono.
Vous conférez un pouvoir d'injonction à une autorité administrative indéterminée. Or, pour nous, les décisions de justice bénéficient déjà du régime de la force exécutoire : il n'est donc pas nécessaire qu'une telle autorité vienne s'insérer dans le processus. En outre, la force exécutoire n'offre pas les garanties nécessaires en matière de libertés fondamentales. Nous ne comprenons pas quel est le but poursuivi.
L'objectif, je vais l'illustrer concrètement. Lorsqu'est prise une décision judiciaire de déréférencement ou de blocage de l'accès à un site tel celui que nous connaissons tous, www.democratie-participative.org, qui a multiplié les sites miroirs comme www.democratie-participative.bis et d'autres, dès lors que l'autorité administrative, c'est-à-dire la plateforme plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements (PHAROS), constate la réapparition du même contenu sous une autre adresse, elle doit pouvoir, sur la base de cette décision, demander aux fournisseurs d'accès à internet et aux moteurs de recherche de l'appliquer.
De surcroît, ce dispositif constitue un moyen efficace de lutter contre les personnes qui, en définitive, se jouent aujourd'hui de la justice. On sait pertinemment que celui qui détient www.democratie-representative.org a acheté plus de 200 noms de domaines, ce qui conduirait à appliquer autant de décisions de justice différentes. Mieux vaut confier à l'autorité administrative compétente, PHAROS, le soin de la surveillance et du blocage. C'est ce que je vous propose et c'est pourquoi je suis défavorable à l'amendement de suppression.
Si c'est sur le fondement du même jugement, l'autorité judiciaire devrait pouvoir le faire appliquer. Nous en revenons au même débat : constatant que l'autorité judiciaire est incapable de faire appliquer ses décisions, on crée une autorité administrative qui, sur le fondement de la décision judiciaire, va les dupliquer sans pour autant offrir les garanties attachées à l'autorité judiciaire, et notamment celles relatives à l'indépendance. Ce choix pragmatique, de confier à une autorité administrative les prérogatives de l'autorité judiciaire, nous y sommes totalement opposés. Visiblement, le site www.democratie-participative.org vous obnubile ; peut-être le site www.convention-citoyenne.fr pourrait-il également être racheté, car ces sujets vous interpellent.
Il n'empêche que si l'autorité judiciaire avait les moyens de fonctionner, nous n'aurions pas ce type de discussions. Il me semble vraiment extravagant et lunaire de devoir, dans une loi, dupliquer des dispositifs aux mains d'une autorité administrative.
Nous parlions bien de www.democratie-participative.org, ce site qui a été interdit par la justice, et non de sites traitant de démocratie en général. Le titre du site n'est pas du tout révélateur de son contenu.
Voilà qui ne me rassure pas.
Je voulais m'assurer que vous aviez compris le dispositif : une fois que l'autorité judiciaire a jugé que telle page comportant tel contenu était interdite, un contenu identique ne doit pas pouvoir réapparaître sur internet ni être référencé, ce qui correspond à ce que nous avions voté en première lecture.
La Commission rejette l'amendement.
Elle adopte l'amendement de précision CL68 de la rapporteure.
Elle en vient à l'amendement CL35 de Mme Muriel Ressiguier.
Il faut qu'une limite soit fixée à la censure de la liberté d'expression de manière à ce que des associations ou des personnes ayant intérêt à agir aient une possibilité de recours, une sorte de contre-pouvoir à opposer aux algorithmes qui pourraient censurer beaucoup trop largement le contenu sur les plateformes. Il ne s'agit d'ailleurs pas que d'une simple hypothèse de travail : un certain nombre de pages politiques jugées « pas dans la ligne », c'est-à-dire contestant le système actuel, ont été censurées par Facebook. Notre collègue François Ruffin en a pour partie fait les frais.
Il serait donc bon de pouvoir saisir l'autorité judiciaire afin de faire également respecter la liberté d'expression.
Je ne doute absolument pas que vous ayez compris le dispositif que j'ai expliqué tout à l'heure. Je me dois toutefois de préciser que l'exposé que vous venez de faire se rapporte à l'article 1er, et non à l'article 6.
Ce dernier comporte un dispositif qui ne repose pas sur Facebook ou sur des algorithmes, mais bien sur l'autorité judiciaire qui, saisie en référé, va demander la suppression d'une page et sur l'application de cette décision de justice, non par les plateformes mais par PHAROS. Il n'est pas là question d'algorithmes, mais bien d'agents habilités dans le cadre d'une procédure initiée par l'autorité judiciaire. En l'espèce, ce ne sont pas les contenus qui sont visés, car nous sommes passés à une autre partie de la proposition de loi.
Avis défavorable.
Si n'est en cause que la position de l'amendement dans le texte, voyons avec les services de la commission ou de la séance comment il pourrait viser l'article 1er, si c'est ce point qui vous embête particulièrement.
Notre amendement est assez clair : « Toute personne, ainsi que toute association ayant intérêt à agir en la matière, peut contester devant l'autorité judiciaire tout contenu rendu inaccessible par une plateforme mentionnée à l'article premier ». Vous pouvez le positionner à l'article 1er, ou en toute fin de texte, il n'empêche que le dispositif que nous prévoyons est, lui, parfaitement clair.
Nous avons adopté à l'article 1er un alinéa comportant une disposition, que j'ai qualifiée de bavarde mais qui permet de rappeler le droit commun, à savoir que toute personne peut saisir le juge, que ce soit pour obtenir le retrait d'un contenu ou pour contester une atteinte présumée à la liberté d'expression.
Votre amendement est donc satisfait.
La Commission rejette l'amendement.
Puis elle adopte l'article 6 modifié.
Article 6 bis AA (nouveau) : Obligations de transparence à la charge des régies publicitaires
La Commission adopte l'amendement rédactionnel CL69 de la rapporteure.
Puis elle adopte l'article 6 bis AA modifié.
Avant l'article 6 bis A
Suivant l'avis défavorable de la rapporteure, la commission rejette l'amendement CL13 de Mme Marie-France Lorho.
Article 6 bis A (art. 15-3-3 [nouveau] du code de procédure pénale) : Spécialisation d'un parquet et d'une juridiction en matière de lutte contre la haine en ligne
La Commission adopte l'amendement de cohérence CL70 de la rapporteure.
Puis elle adopte l'article 6 bis A modifié.
Article 6 bis B (art. 132-45 et 138 du code de procédure pénale et 131-4-1 du code pénal) : Création d'une nouvelle interdiction dans les obligations du contrôle judiciaire et du sursis avec mise à l'épreuve
La Commission adopte l'amendement de cohérence CL71 de la rapporteure.
Puis elle adopte l'article 6 bis B modifié.
Article 6 bis C (art. 398-1, 510 et 512 du code de procédure pénale) : Compétence du juge unique pour le délit de refus de retrait d'un contenu manifestement haineux en ligne
La Commission est saisie de l'amendement CL72 de la rapporteure.
L'amendement vise, par cohérence avec les modifications apportées à l'article 1er, à rétablir dans notre texte les dispositions que nous avions adoptées en première lecture afin de préciser la compétence du juge unique en matière correctionnelle pour statuer sur les refus de retrait de contenus haineux.
La Commission adopte l'amendement et l'article 6 bis C est ainsi rétabli.
Article 6 ter A (art. L. 121-1 du code de l'éducation) : Mission d'information des écoles, collèges et lycées sur les violences en ligne
La Commission adopte l'article 6 ter A sans modification.
Article 6 ter (art. L. 721-2 du code de l'éducation) : Formation des enseignants en matière de lutte contre les contenus haineux en ligne
Suivant l'avis défavorable de la rapporteure, la Commission rejette l'amendement de suppression CL19 de Mme Emmanuelle Ménard.
Puis elle adopte l'article 6 ter sans modification.
Article 7 : Création d'un Observatoire de la haine en ligne
La Commission est saisie des amendements identiques CL 20 de Mme Emmanuelle Ménard et CL28 de M. Alexis Corbière.
La création d'une énième entité, l'Observatoire des contenus illicites en ligne qui dépendra du CSA, paraît superfétatoire et redondante dans la mesure où une telle observation devrait déjà faire partie des missions de cette autorité administrative indépendante. D'où l'amendement CL20 de suppression.
Il serait plus utile de supprimer cet observatoire, qui n'existe pas encore, pour redonner vie à l'Observatoire de la pauvreté. À mon avis, une telle observation doit, au vu des prérogatives qui lui ont été confiées, d'ores et déjà figurer dans le rapport annuel d'activité du Conseil.
Je ne sais pas exactement quelles sont vos intentions en la matière, hormis d'affirmer que ce sont des organismes extrajudiciaires qui doivent expliquer ce que sont les contenus illicites en ligne. Un tel observatoire nous expliquera-t-il que l'antisionisme constitue un problème sur internet ? Je ne vois pas bien la plus-value apportée par cet article, sinon celle de se faire plaisir en créant un observatoire.
La plus-value apportée par cet observatoire sera précisément de travailler à l'identification ainsi qu'à une meilleure appréhension des phénomènes de haine en ligne. Nous avons beaucoup entendu, dans le cadre de ce débat, cette question : qu'est-ce que la haine ? Quels en sont les contours ? On sait très bien que les expressions de haine ont un caractère protéiforme et qu'elles évoluent dans le temps.
Cet observatoire présentera également l'avantage d'associer, au-delà du rapport d'information qui s'applique à chaque plateforme, un certain nombre d'acteurs – chercheurs, sociologues, associations – et de les mettre autour de la table en vue de mieux agir contre la propagation des contenus haineux sur internet.
Je suis donc défavorable à ces deux amendements.
Pour quelle raison la mention « notamment les mineurs » figure-t-elle à l'alinéa 2 de l'article 7 ? Il serait possible de lister un certain nombre d'autres publics visés par la haine, plus précisément par l'homophobie ou par le racisme. Vous n'avez pas expliqué en quoi et comment les mineurs seront associés à ce nouvel organisme, ni comment ils seraient représentés en son sein.
De mémoire, lors de la première lecture, cette mention s'était imposée pour la prévention, l'éducation et l'accompagnement : quand on comprend mieux le phénomène, la situation des victimes s'améliore. Comme l'a rappelé Mme la rapporteure, des associations et des chercheurs y seraient associés.
Lors des débats en première lecture au sein de notre assemblée, nombre d'amendements ont porté sur la nécessité de réfléchir au phénomène de propagation des contenus haineux à destination des mineurs, car ces contenus peuvent varier en fonction des âges. L'usage de l'adverbe « notamment », qui ne veut pas dire « uniquement », permet d'indiquer qu'il sera important que les travaux de l'Observatoire de la haine en ligne soient également consacrés à la question du cyberharcèlement, qui vise les mineurs.
Au regard de l'augmentation des tentatives de suicide commises par nos jeunes en raison de ce même cyberharcèlement, c'est une très bonne chose.
Dans mes souvenirs, les débats ont d'abord porté, dans le cadre de la discussion d'un amendement de notre collègue Erwan Balanant, sur le harcèlement scolaire, c'est-à-dire sur tout ce qui se passe au sein des établissements scolaires. Les mots « notamment les mineurs » me posent problème compte tenu de l'accent qui sera spécifiquement mis sur lesdits mineurs, sans que l'on soit par ailleurs capable d'expliquer comment ils seront représentés dans le cadre de cet observatoire, qui associera « les opérateurs, associations, administrations et chercheurs » : le seront-ils directement ou par le biais d'associations ? Comment allons-nous procéder ? Je ne comprends pas cette mention.
La Commission rejette les amendements.
Elle est saisie de l'amendement CL45 de Mme Caroline Abadie.
Le Sénat a apporté quelques modifications assez utiles concernant le fonctionnement de l'Observatoire. Toutefois, à l'initiative de nos collègues sénateurs du groupe Les Républicains, son champ de compétences a été très largement étendu à tous les contenus illicites en ligne, dépassant ainsi amplement l'objet de la proposition de loi, qui est de ne traiter que du phénomène des contenus haineux.
Aussi voudrions-nous rétablir l'intitulé de départ, c'est-à-dire celui d'Observatoire de la haine en ligne.
Avis favorable. Il n'était, en effet, pas opportun d'étendre le champ de cet observatoire.
Une telle mission aurait pu être confiée par exemple à l'Institut national des hautes études de la sécurité et en justice (INHESJ), puisqu'il s'agit d'un domaine pluridisciplinaire comportant un aspect opérationnel, en lien avec les services de sécurité. On aurait, dans cette hypothèse, pu mesurer le développement des contenus haineux sur internet et imaginer des façons de lutter contre celui-ci.
Une telle mission aurait également pu être confiée à la Délégation interministérielle à la lutte contre le racisme et l'antisémitisme et la haine anti-LGBT (DILCRAH). Or non, vous persistez à vouloir créer un énième observatoire – auriez-vous des amis à caser dans le secteur ou des postes à pourvoir ?
Je ne comprends pas bien la logique à l'oeuvre. Il est vrai que vous supprimez l'INHESJ : faut-il en conclure que vous allez bientôt faire de même avec la DILCRAH et tout regrouper dans cet observatoire ? Je ne vois pas bien la cohérence de tout cela.
La Commission adopte l'amendement.
Elle en vient à l'amendement CL73 de la rapporteure.
Le Sénat, qui a voulu préciser le champ d'intervention de l'Observatoire, a fait référence, à l'alinéa 5, à PHAROS. Or cette plateforme n'a pas d'existence législative. Par conséquent, dans un but de cohérence et d'efficacité du texte, je propose de supprimer cet alinéa.
La Commission adopte l'amendement.
Puis elle adopte l'article 7 modifié.
Article 7 bis (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Consécration dans la loi de la jurisprudence du Conseil constitutionnel relative à la mise en cause de la responsabilité des hébergeurs à raison des contenus manifestement illicites qu'ils stockent
La Commission adopte l'article sans modification.
Article 9 : Modalités d'entrée en vigueur
La Commission adopte l'amendement de coordination CL76 de la rapporteure.
Puis elle adopte l'article 9 modifié.
Article 10 (art. L. 371-1, L. 771-1, L. 773-1 et L. 774-1 du code de l'éducation, art. 108 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication et art. 57 et 58 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Conditions d'application outre-mer
La Commission adopte l'article 10 sans modification.
Titre
Suivant l'avis défavorable de la rapporteure, la Commission rejette l'amendement CL7 de Mme Marie-France Lorho.
Enfin, la Commission adopte l'ensemble de la proposition de loi modifiée.
La réunion s'achève à 23 heures 55.
Membres présents ou excusés
Présents. - Mme Caroline Abadie, Mme Laetitia Avia, M. Ugo Bernalicis, Mme Yaël Braun-Pivet, M. Xavier Breton, M. Éric Ciotti, Mme Nicole Dubré-Chirat, Mme Isabelle Florennes, Mme Émilie Guerel, M. Dimitri Houbron, M. Sacha Houlié, Mme Catherine Kamowski, M. Guillaume Larrivé, M. Philippe Latombe, Mme Marie-France Lorho, Mme Emmanuelle Ménard, M. Jean-Michel Mis, M. Paul Molac, Mme Danièle Obono, M. Didier Paris, Mme George Pau-Langevin, M. Jean-Pierre Pont, M. Bruno Questel, M. Rémy Rebeyrotte, M. Jean Terlier, M. Arnaud Viala, M. Jean-Luc Warsmann
Excusés. - Mme Huguette Bello, Mme Bérangère Couillard, M. Philippe Dunoyer, Mme Paula Forteza, Mme Marietta Karamanli, Mme Maina Sage
Assistaient également à la réunion. - M. Éric Bothorel, Mme Virginie Duby-Muller, Mme Laure de La Raudière, M. Frédéric Reiss, M. Jean-Marc Zulesi