La réunion débute à 16 heures 40.
Présidence de Mme Yaël Braun-Pivet, présidente.
La Commission poursuit l'examen des articles de la proposition de loi visant à lutter contre la haine sur internet (n° 1785) (Mme Laetitia Avia, rapporteure)
Mes chers collègues, nous poursuivons l'examen de la proposition de loi visant à lutter contre la haine sur internet (n° 1785). Nous en étions arrivés aux amendements portant article additionnel après l'article 2.
Après l'article 2
La Commission examine en discussion commune l'amendement CL175 de M. Jean-Michel Mis, les amendements identiques CL50 de Mme Laurence Vichnievsky et CL166 de Mme Cécile Untermaier, ainsi que les amendements identiques CL53 de Mme Laurence Vichnievsky et CL167 de Mme Cécile Untermaier.
L'amendement CL175 vise à offrir aux mineurs, premiers utilisateurs des plateformes en ligne, une protection spéciale lorsqu'ils sont victimes de cyberviolence, que le contenu soit manifestement illicite ou qu'il s'agisse de haine sur internet. Cela peut, en effet, avoir des conséquences extrêmement graves pour les mineurs victimes.
L'amendement CL50 est similaire. Les mineurs sont seuls face aux réseaux sociaux, notamment quand ils sont victimes d'attaques ou de harcèlement. Ils ne savent pas décrire en quoi les contenus sont manifestement illicites et n'ont pas toujours envie d'en parler à leurs parents. Il serait donc utile qu'une personne morale puisse signaler un contenu haineux. La mission du signaleur de confiance va d'ailleurs bien au-delà du signalement : il agit comme interface entre les plateformes et les mineurs. L'amendement conserve néanmoins le délai de vingt-quatre heures, afin de tenir compte des arguments techniques de Mme la rapporteure.
L'amendement CL166 est identique. Les jeunes peuvent à la fois être victimes de cyberviolence et de cyberharcèlement. Il faut donc leur permettre de saisir, sans autorisation parentale – c'est essentiel – un signaleur de confiance, tel que défini par la recommandation de la Commission européenne du 1er mars 2018 sur les mesures destinées à lutter de manière efficace contre les contenus illicites en ligne. L'amendement CL167 est de repli puisqu'il ne concerne que la cyberviolence.
L'amendement CL53 est également de repli. Il ne vise que les délits prévus dans le cadre de la loi du 29 juillet 1881 sur la liberté de la presse, les contenus haineux et injurieux étant plus faciles à qualifier que la haine qui s'apprécie au cas par cas.
Ces différents amendements ont le même objectif : permettre à un mineur victime de comportements illicites sur internet de pouvoir faire appel à une association qui assurera, à sa place, le signalement et le suivi. J'y souscris pleinement. Mais les différentes rédactions posent problème – retour dans les douze heures, alors que la proposition de loi prévoit vingt-quatre heures dans tous les cas ; champs différents ; risque de lecture a contrario des dispositions. Sur ce dernier point, alors que la proposition de loi prévoit que toute association peut procéder à des signalements sur la plateforme, je crains que vos amendements restreignent ce droit aux seules associations visées. Je vous propose donc de les retirer, afin que nous puissions trouver une rédaction commune pour la séance, sur la base du délai de vingt-quatre heures et de l'objectif d'accompagnement des mineurs.
Dans votre logique, tout le monde peut procéder à un signalement. Mais nous savons tous que certaines associations ont plus l'habitude et la compétence pour le faire – que ce soit parce qu'elles travaillent avec des mineurs ou traitent des sujets en lien avec le racisme. Il serait dommage de s'en priver et de ne pas leur faire une place spécifique. Dans les codes de bonnes pratiques européens, les signaleurs de confiance ont d'ailleurs un rôle particulier. Pourquoi ne pas prévoir un statut spécifique ? Je retire les amendements mais reprendrai l'idée pour la séance.
Les amendements sont retirés.
Article 3 : Devoir d'information des opérateurs de plateforme en ligne à fort trafic
La Commission adopte l'amendement de cohérence CL105 de la rapporteure.
Elle en vient à l'amendement CL176 de M. Erwan Balanant.
Pour faire suite à l'amendement à l'article 2 sur la teneur de l'obligation d'information incombant aux opérateurs, et afin de rendre le dispositif plus opérationnel, le présent amendement vise à compléter l'obligation d'information en imposant aux opérateurs de publier la définition des différentes infractions d'injure et d'incitation à la haine. Un tel dispositif poursuit un double objectif. D'une part, il a une visée pédagogique, puisqu'il sensibilise l'ensemble des utilisateurs à la teneur d'une injure ou d'une incitation à la haine. Confrontés très régulièrement à ces informations au cours de leurs différentes connexions, ils auront ainsi une conscience accrue de ce qu'ils peuvent ou non exprimer sur ces dernières. D'autre part, il permettrait aux victimes de contenus relevant de l'injure ou de l'incitation à la haine de les identifier comme tels. Elles seraient alors incitées à agir.
Je comprends votre intention mais l'amendement pose problème. Votre rédaction ne vise pas l'ensemble des infractions concernées par la proposition de loi. Que couvre-t-on ? L'injure, l'injure discriminatoire, l'incitation ou la provocation à la haine ? C'est très lourd… Je crois à la vertu de la pédagogie et de l'éducation. Je vous demanderai de bien vouloir retirer l'amendement. À défaut, mon avis sera défavorable.
Je ne vois pas en quoi le fait de disposer d'informations claires sur ce qu'est l'infraction d'injure ou d'incitation à la haine serait problématique.Vous parlez de pédagogie : la pédagogie, c'est l'art de la répétition ! Plus on répètera, plus il est probable que les utilisateurs – jeunes ou moins jeunes – percevront la signification des mots. M. Cédric O, secrétaire d'État chargé du numérique, nous l'a dit : certaines personnes n'ont pas conscience de la teneur de leurs propos… Nous devons faire un travail de fond, et celui-ci passe par la multiplication des alertes. Je ne retire pas mon amendement.
La Commission rejette l'amendement.
Puis elle adopte l'amendement CL106 de précision de la rapporteure.
Elle en vient à l'amendement CL269 de Mme Caroline Abadie.
L'amendement concerne également l'obligation d'information du public. Nous souhaitons indiquer aux personnes qui notifient des contenus quels sont leurs délais de recours en justice. En effet, ils sont courts. Il est donc utile de disposer de l'information dès la notification.
La Commission adopte l'amendement.
Elle passe à l'amendement CL86 de M. Hervé Saulignac.
Là encore, il s'agit de mieux informer les usagers. Nous proposons de supprimer la mention de l'alinéa 1 qui distingue les victimes « de contenus mentionnés à l'article 1er ». Même si les contenus signalés dépassent le champ d'application de la présente proposition de loi, il est impératif que les opérateurs informent de leurs droits les victimes qui ont procédé à un signalement.
Je comprends parfaitement votre objectif. Mais je l'ai déjà rappelé ce matin : toutes les obligations de moyens prévues par la proposition de loi sont soumises à la régulation du Conseil supérieur de l'audiovisuel (CSA). Son pouvoir de sanction étant extrêmement important, nous devons rester dans le champ restreint fixé par le Conseil d'État – contenus haineux, injurieux ou offensants.
En outre, d'un point de vue pratico-pratique, j'imagine difficilement les plateformes mettre en place des mécanismes de réponse uniquement sur un certain nombre de contenus. Les bonnes pratiques que nous cherchons à mettre en place vont sans doute permettre de développer un système vertueux.
Le problème n'est ni pratico-pratique ni technique, il s'agit simplement d'un signalement qui ne correspond pas au contenu mentionné à l'article 1er. Mais il peut néanmoins avoir du sens et être fondé. Une réponse – même automatique – pourrait parfaitement indiquer à celui qui se considère comme victime quels sont ses droits. Le pire serait de le laisser seul et sans réponse…
Je me suis sans doute mal exprimée : en pratique, vous avez raison, c'est faisable. La difficulté est d'ordre juridique – nous ne pouvons aller au-delà du champ visé par le texte –, celui soumis à la régulation. Nous avions initialement envisagé de demander aux plateformes de répondre à tout signalement dans un délai de sept jours, mais le Conseil d'État l'a refusé, au motif que cela ne concernait pas les contenus visés dans la proposition de loi. Hors de ce périmètre, il est impossible de fixer des obligations aux plateformes.
J'aimerais beaucoup aller plus loin, mais je ne veux pas mettre en danger la constitutionnalité et la conventionnalité du texte – nous y serions tous perdants. En pratique, je le répète, il serait plus intelligent que les plateformes répondent pour tous les contenus – et non uniquement pour ceux prévus par la proposition de loi. Espérons qu'elles le fassent, encourageons-les à le faire, mais nous ne pouvons pas l'écrire dans la loi.
La Commission rejette l'amendement.
Elle adopte ensuite l'amendement de coordination CL107 puis l'amendement rédactionnel CL108 de la rapporteure.
Elle en vient à l'amendement CL165 de Mme Michèle Victory.
Cet amendement reprend une recommandation du rapport de la commission d'enquête sur la lutte contre les groupuscules d'extrême droite en France, afin de valoriser davantage le rôle des associations qui luttent contre la propagation des discours haineux. Il aurait peut-être été bienvenu de prendre le temps nécessaire pour intégrer dans la proposition de loi certaines recommandations de cette commission d'enquête.
Je crains que l'amendement n'alourdisse la rédaction. La formulation retenue est volontairement générale – « les acteurs en mesure d'assurer leur accompagnement » – et permet de s'adapter à la pluralité des victimes, tout en incluant les associations d'aide aux victimes.
La Commission rejette l'amendement.
Puis elle examine l'amendement CL280 de Mme Caroline Abadie.
Nous l'avons abordé lors de la discussion générale, l'amendement vise à informer la personne qui notifie des risques qu'elle encourt en cas de notification abusive. Il ne s'agit pas d'empêcher un notifiant de bonne foi de signaler un contenu illicite, mais de limiter les notifications abusives – celles faites en parfaite connaissance de cause du caractère non-illicite du contenu.
Mon avis est favorable car cette précision vient compléter le dispositif voté ce matin concernant les notifications abusives.
La Commission adopte l'amendement.
Elle passe à l'amendement CL109 de la rapporteure.
Cet amendement vise à compléter le devoir d'information des plateformes : elles doivent informer les utilisateurs auteurs de contenus retirés des voies de recours – internes et judiciaires – dont ils disposent, et pas seulement les victimes de ces contenus.
La Commission adopte l'amendement.
Puis elle en vient à l'amendement CL19 rectifié de Mme Brigitte Kuster.
L'article 3 impose à dessein aux opérateurs d'informer leurs utilisateurs qui s'estiment victimes de contenus haineux sur leurs recours, y compris judiciaires. Mais, par parallélisme des formes, l'amendement propose que les opérateurs communiquent auprès des utilisateurs qui publient lesdits contenus sur les sanctions qu'ils encourent. Une telle disposition présenterait un caractère dissuasif. C'est pourquoi nous proposons de compléter l'article 3 par l'alinéa suivant : « Ils mettent à disposition une information publique, claire et détaillée sur les sanctions, y compris judiciaires, que leurs utilisateurs encourent en cas de publication de contenus mentionnés au même article ».
Vous aviez également déposé cet amendement lors des débats en commission des Affaires culturelles et de l'éducation. Il est pertinent et complète utilement le dispositif d'information.
La Commission adopte l'amendement.
Elle examine l'amendement CL270 rectifié de Mme Albane Gaillot.
Le testing des différentes plateformes réalisé par le Haut Conseil à l'égalité entre les femmes et les hommes dans le cadre de son rapport de février 2018 « En finir avec l'impunité des violences faites aux femmes en ligne : une urgence pour les victimes » a mis en lumière le manque de clarté des règles de modération transmises aux équipes de modération des plateformes qui sont chargées de décider si un contenu est conforme au règlement de la plateforme. C'est pourquoi le présent amendement vise à imposer aux plateformes de rendre publiques leurs règles de modération.
C'est une information importante en termes de transparence – selon quelles règles les contenus sont-ils retirés ? L'information est aujourd'hui asymétrique sur les différentes plateformes.
La Commission adopte l'amendement.
La Commission passe à l'amendement CL126 de M. Jean-François Cesarini.
L'amendement vise à sanctionner les abus de dénonciation de contenus litigieux. Certaines plateformes disposent déjà de moyens de signalement et certains utilisateurs se regroupent pour signaler en bloc des contenus, dans le seul objectif d'empêcher l'autre de communiquer. S'il faut protéger ceux qui sont injuriés, il faut aussi sanctionner pénalement ceux qui signalent de manière malhonnête.
Nous avons voté ce matin un amendement similaire au vôtre, mais avec des peines cohérentes avec les dispositions de la loi pour la confiance dans l'économie numérique (LCEN) – 15 000 euros d'amende. Je vous remercie de bien vouloir le retirer.
L'amendement est retiré.
La Commission examine l'amendement CL110 de la rapporteure qui fait l'objet des sous-amendements CL141 de Mme Isabelle Florennes, CL293 de Mme Laure de La Raudière et CL164 de Mme Isabelle Florennes.
L'amendement CL110 reprend une des préconisations du Conseil d'État en matière de modération et de lutte contre les contenus haineux. Il vise à obliger les plateformes à rendre compte de l'organisation interne et des moyens qu'elles mettent en oeuvre pour se conformer à l'obligation de retrait et de leurs moyens et actions dans la lutte contre les contenus illicites.
Le CSA fixera la liste des informations que les plateformes rendent publiques – certaines seront simplement transmises au CSA, d'autres communiquées au grand public.
Les sous-amendements CL141 et CL164 sont de précision. Il s'agir de prévoir que les informations transmises devront notamment contenir les données quantitatives relatives aux contenus signalés, retirés, aux comptes suspendus ou supprimés, et les motifs ayant conduit à cette décision, ainsi que les actions de prévention mises en oeuvre pour lutter contre la haine sur internet et le harcèlement, en particulier celles à destination des utilisateurs mineurs. Nous précisons en outre que les données devront être traitées et intégrées au rapport annuel d'activité du CSA.
Le sous-amendement CL293 vise à préciser que la communication de ces informations se fera dans le respect du secret des affaires. Bien sûr, le CSA devra disposer d'un pouvoir d'audit des moyens mis en oeuvre par les plateformes et comprendre dans le détail le fonctionnement des algorithmes. Mais, pour que la coopération avec les plateformes soit efficace et afin qu'elles soient rassurées, il conviendrait de préciser que la communication des données recueillies respectera le secret des affaires.
Madame de la Raudière, concernant le secret des affaires, je partage votre objectif, mais il va de soi. Les membres et agents du CSA sont astreints à un secret professionnel pour les faits, actes et renseignements dont ils peuvent avoir connaissance dans le cadre de leurs fonctions. Je crains que la rédaction de votre sous-amendement n'entraîne des conséquences mal évaluées. Je vous propose de vérifier si l'état actuel du droit permet d'éviter d'apporter cette précision. Dans l'attente, je vous demanderai de bien vouloir retirer le sous-amendement CL293.
Madame Florennes, le sous-amendement CL141 me semble trop restrictif. En effet, si certaines informations ont vocation à être transmises seulement une fois par an, d'autres pourraient être transmises mensuellement, trimestriellement ou semestriellement. La relation entre le CSA et les plateformes impliquera peut-être des échanges infra-annuels.
Le sous-amendement CL164 précise les informations à transmettre au CSA. Mais le mieux est parfois l'ennemi du bien… S'agissant des données quantitatives relatives aux contenus signalés, retirés, aux comptes suspendus ou supprimés, cela va de soi. Si les rapports de transparence ne contiennent pas ces informations, ils seront inutiles.
Vous souhaitez également la transmission des motifs ayant conduit à la décision – c'est lourd –, les actions de prévention mises en oeuvre pour lutter contre la haine sur internet – c'est très large – et le harcèlement – ce n'est pas dans le champ de la loi – en particulier celles à destination des mineurs. Je vous propose soit de mettre à profit le temps qui nous reste avant la séance pour trouver une rédaction satisfaisante, en prenant en compte les préconisations du rapport de Benoit Loutrel, soit de rectifier le sous-amendement en ne le conservant que jusqu'au mot « supprimés ».
S'agissant du sous-amendement CL141, vous m'indiquez que les informations seront bien intégrées au rapport annuel, et que des rendez-vous réguliers et la mise à jour des informations sont prévus.
S'agissant du sous-amendement CL164, notre groupe est très attaché à la prévention. Mais compte tenu des différentes modifications de la proposition de loi que vous avez opérées par amendement, il était complexe d'intégrer ce volet dans le dispositif. Il serait donc intéressant de réfléchir avec vous sur cet aspect qui nous tient à coeur, pour la séance.
Comme toute autorité administrative indépendante, le CSA rend un rapport annuel, qui comprendra une partie spécifique relative à ses nouvelles missions. Mais pourriez-vous nous en dire plus sur ce rapport ? S'agira-t-il d'un rapport numérique régulier, qui permettrait à chacun de savoir où en sont les signalements ?
Ma question concerne notre sous-amendement CL141. Les autorités administratives indépendantes ont-elles l'obligation de rendre compte annuellement ? Si ce n'était pas le cas, il faudrait rectifier le sous-amendement pour indiquer « a minima annuellement ». Ainsi, nous aurions la certitude de disposer d'un rapport annuel, mais il pourrait y en avoir plus régulièrement. La proposition de Mme Untermaier est également intéressante. Peut-être peut-on y réfléchir pour la séance ?
Je suis toujours prête à faire plaisir à Erwan Balanant ! On peut prévoir dans la loi « au moins annuellement ». Pourquoi pas ?
Pour répondre à la question de Mme Untermaier, il faut distinguer la transparence vis-à-vis du CSA et la transparence vis-à-vis du public. Actuellement, pour ce dernier, la transparence est au moins annuelle. J'espère que, demain, elle pourra être plus régulière. Initialement, j'avais utilisé le terme « périodique » pour l'encourager, mais le Conseil d'État a souhaité qu'une périodicité précise soit indiquée. En pratique, les rapports de transparence seront bien plus réguliers, car la matière évolue rapidement.
Peut-être le CSA pourra-t-il nous indiquer la périodicité. En effet, il rédigera les bilans en collaboration avec les plateformes.
Notre discussion souligne que la rédaction mérite d'être clarifiée, en séparant clairement les informations à destination du public de celles nécessaires au travail du CSA avec les plateformes. Le secret des affaires pourrait ainsi être intégré.
Les sous-amendements CL141, CL293 et CL164 sont retirés.
Je prends note de l'engagement de la rapporteure à travailler avec vous sur ces différentes thématiques.
La Commission adopte l'amendement CL110.
La Commission examine l'amendement CL11 de la commission des Affaires culturelles et de l'éducation, qui fait l'objet des sous-amendements CL285 et CL286 de la rapporteure.
Afin de renforcer l'efficacité de la lutte contre les contenus haineux en ligne, notre amendement propose d'imposer aux plateformes qui permettent à des mineurs de moins de quinze ans de s'inscrire de délivrer à ces derniers, ainsi qu'à leurs parents, une sensibilisation à l'utilisation civique et responsable de leur service, ainsi qu'une information sur les risques juridiques encourus par le mineur et ses parents en cas de diffusion de contenus haineux.
Le sous-amendement CL285 vise à déplacer votre amendement dans le champ du devoir de coopération des opérateurs de plateforme prévu par l'article 6-3 de la LCEN.
Le sous-amendement CL286 vise à supprimer la seconde phrase de l'amendement. Cette nouvelle obligation figurant à l'article 6-3 précité, dans le champ du devoir de coopération des opérateurs de plateforme, il n'y a pas lieu de faire référence au CSA. En outre, vous souhaitez qu'elle concerne « chaque opérateur », ce qui est très lourd. Nous préférons conserver l'obligation générale, liée au devoir de coopération à la charge des opérateurs.
L'objectif de la commission des Affaires culturelles et d'éducation me semble satisfait par vos sous-amendements. Pour autant, et même s'il n'est pas utile de l'inscrire dans la loi, il faudra que cette sensibilisation prenne une forme active, impliquant la participation des utilisateurs, et ne se réduise pas à la diffusion discrète d'un message rapidement oublié…
Je vous avoue que je suis assez étonné, madame la rapporteure. Tout à l'heure, vous avez refusé un amendement visant à donner une simple information aux internautes faisant un signalement qui n'était pas dans les clous. Et là, vous donnez un avis favorable à un amendement qui vise à obliger les plateformes à délivrer des informations pour sensibiliser les parents de mineurs de moins de quinze ans, disposition aussi inutile que difficile à mettre en oeuvre. J'ai l'impression que vous faites un tri sélectif dans les amendements et que vous voulez ici faire plaisir à une collègue, ce que je peux comprendre mais il faut le dire clairement.
Il est important de rappeler que les parents sont responsables juridiquement de leurs enfants mineurs. Dans le cadre de la prévention, il est important de les impliquer. Ce n'est pas pour me faire plaisir que Mme la rapporteure a donné un avis favorable mais parce que cet amendement est étayé par les arguments avancés par plusieurs des personnes que nous avons auditionnées.
Les parents étant censés autoriser l'inscription de leurs enfants de moins de quinze ans, autant leur fournir tous les renseignements nécessaires. Beaucoup de parents ne prennent conscience des enjeux attachés à l'utilisation des plateformes qu'une fois que les dégâts sont constatés.
Depuis le début de nos discussions, je donne des avis favorables sans qu'interviennent des considérations sur le groupe à l'origine de l'amendement. Je prends en compte les critères d'opérationnalité et je ne pense pas avoir fait preuve de sectarisme. Il ne s'agit pas de faire plaisir à qui que ce soit. Seules m'importent les dispositions qui vont dans le bon sens.
Par ailleurs, je rappelle que par mon sous-amendement, j'ai proposé de retirer le second alinéa de l'amendement CL11 qui ne me paraît pas opérationnel. J'ai suggéré de faire rentrer le premier alinéa dans l'article 6-3 de la LCEN, c'est-à-dire dans le champ des obligations de moyens imposées aux plateformes. Elles seraient soumises à l'obligation de mettre en oeuvre des dispositifs d'information et de sensibilisation des parents.
Au titre du RGPD, les mineurs de moins de treize ans ne peuvent donner leur consentement pour créer un compte sur les réseaux sociaux et ceux qui sont âgés de treize à quinze ans doivent recueillir l'autorisation parentale pour s'inscrire. Concrètement, c'est à cette étape que les informations seraient délivrées aux parents pour les mettre en garde contre les dangers possibles de l'utilisation de la plateforme. Cela me semble aller dans le bon sens.
La Commission adopte successivement les sous-amendements CL285 puis CL286.
Elle adopte ensuite l'amendement CL11 sous-amendé.
La Commission est saisie de l'amendement CL111 de la rapporteure.
Cet amendement reprend, dans le régime instauré par la proposition de loi, l'obligation faite aux opérateurs de plateforme de rendre compte aux autorités publiques des activités haineuses prévue dans la LCEN.
La Commission adopte l'amendement.
La Commission adopte ensuite l'article 3 modifié.
Après l'article 3
La Commission examine ensuite l'amendement CL112 de la rapporteure.
Il s'agit, par cet amendement, de transférer après l'article 3 une partie des dispositions de l'article 5 relatives à la coopération des acteurs numériques avec l'autorité judiciaire. Cela concerne l'aggravation des sanctions pénales en cas de non-coopération, qui passeraient de 75 000 euros à 250 000 euros pour les personnes physiques et à 1,25 million d'euros pour les personnes morales.
Le reste des dispositions de l'article 5 a vocation à figurer au sein de l'article 3, parmi les obligations de moyens auxquelles seront soumis les opérateurs de plateforme visés par la proposition de loi. Je parle ici de l'obligation faite aux plateformes de désigner un représentant légal sur le territoire français, interlocuteur référent du régulateur chargé de répondre aux demandes de l'autorité judiciaire, notamment celles qui portent sur l'identification de ceux de leurs utilisateurs qui commettent des délits.
La Commission adopte l'amendement.
En conséquence, l'article 3 bis est ainsi rédigé.
Puis elle examine l'amendement CL273 de Mme Caroline Abadie.
Cet amendement vise le cyber-harcèlement. Nous souhaiterions que les victimes puissent notifier les contenus en cause aux plateformes qui auraient obligation de conserver l'ensemble des données afin de faciliter les actions en justice.
Cette obligation est davantage une obligation de moyens qu'une obligation de résultat. Nous essayons par ce biais de permettre aux victimes de s'armer mieux, de limiter les attaques et de se préparer aux poursuites judiciaires.
Le harcèlement moral a été évoqué à de nombreuses reprises depuis ce matin. Il est important de travailler à des mécanismes qui permettraient de le rendre plus détectable, notamment lorsqu'il prend la forme de « raids numériques ». Le faire entrer dans le champ du texte pose toutefois problème. Nous savons que le périmètre des obligations de moyens est limité pour respecter l'exigence de conventionalité soulignée par le Conseil d'État. Par ailleurs, il faudrait retravailler la rédaction concernant la conservation des données.
Je vous demande donc de bien vouloir retirer votre amendement, madame Abadie.
Nous avons conscience des points de faiblesse de cet amendement et nous essaierons de trouver un point de convergence avec ceux de nos collègues qui ont la même préoccupation que nous. J'accepte donc de le retirer.
L'amendement CL273 est retiré.
La Commission est saisie de l'amendement CL182 de M. Michel Larive.
Cet amendement vise à éviter que les algorithmes utilisés par les plateformes aient pour conséquence de perpétuer, de produire ou de renforcer des préjugés justifiant et instituant des discriminations entre les personnes en raison de ce qu'elles sont.
Nous savons que les grandes plateformes produisent des biais algorithmiques, qui ont fait l'objet de plusieurs études. Pensons aux analyses de Cathy O'Neil dans son ouvrage Weapons of Math Destruction, dont l'édition française Algorithmes, la bombe à retardement a été préfacée par notre collègue Cédric Villani. Elle y démontre que derrière l'objectivité et la neutralité proclamée des algorithmes se cachent les opinions et les intérêts subjectifs des personnes qui les créent ou qui les utilisent.
Si l'on cherche sur de grands moteurs de recherche les termes « jeune noire », « jeune asiatique » ou « jeune arabe », les premières propositions renvoient à des sites pornographiques tout comme pour le mot « lesbienne ». Certaines associations ont fait récemment campagne pour que ces biais soient corrigés afin d'éviter la perpétuation de stéréotypes et de discriminations.
Ces biais ont des conséquences concrètes. Il a été révélé qu'un système de tri de curriculum vitae (CV) au profit d'entreprises proposé par Amazon pénalisait les CV contenant le mot « femme », soit en les mettant de côté, soit en proposant des salaires plus bas pour elles.
Les preuves s'accumulent et nous voulons obliger les plateformes à rendre publics les moyens qu'elles mettent en oeuvre pour que leurs algorithmes ne discriminent plus.
Le problème que vous pointez est réel mais votre amendement soulève plusieurs difficultés.
Le premier alinéa se situe hors du champ du texte.
Par ailleurs, la législation actuelle, qu'il s'agisse de celle applicable au traitement de données à caractère personnel – RGPD, loi « Informatique et libertés » – ou du code pénal, comprend déjà des dispositions qui prohibent les traitements discriminatoires que vous visez. Il appartient aux régulateurs compétents, comme la CNIL ou demain le CSA avec les nouveaux pouvoirs d'enquête dont il sera doté, de s'assurer que l'interdiction des pratiques discriminatoires est respectée.
Avis défavorable donc.
Cet amendement fait partie des rares amendements de notre groupe qui n'ont pas été déclarés irrecevables.
Cette proposition de loi se donne pour objectif de lutter contre l'incitation à la haine sur internet, qu'elle ait un caractère raciste, sexiste ou homophobe. Si nous voulons nous attaquer aux sources du problème et non pas seulement à ses manifestations, il nous faut légiférer sur les algorithmes qui propagent des pratiques discriminatoires. Nous sommes donc bien dans le champ du texte.
En outre, cet amendement tend à rendre transparents les ressorts des algorithmes. Nous connaissons le rôle crucial que jouent en ce domaine des lanceuses et lanceurs d'alerte et des associations. Grâce à cette disposition, ils pourraient d'autant mieux contribuer à corriger ces biais.
Cela n'a rien à voir avec le travail des régulateurs. C'est aux plateformes d'agir et la transparence est une manière de les responsabiliser.
La Commission rejette l'amendement.
Elle examine ensuite l'amendement CL180 de M. Ugo Bernalicis.
Par cet amendement, nous proposons que les plateformes numériques mettent en place des dispositifs d'information et de communication visant à lutter contre la haine en ligne. Le régime de responsabilité et les obligations qui reposent sur les plateformes ne reflètent pas l'importance de la part qu'elles prennent dans les usages numériques des citoyens. Aujourd'hui, 40 % des jeunes disent avoir été victimes d'une agression en ligne. Pourtant les plateformes, notamment les grandes plateformes de réseaux sociaux, jouent sur l'ambiguïté inhérente à leur statut juridique d'hébergeur et laissent se développer une culture de l'impunité.
Des campagnes ont été diffusées sur les réseaux sociaux pour sensibiliser les utilisateurs aux pratiques discriminatoires. Il est nécessaire d'intensifier ce travail d'information et d'impliquer les plateformes. L'une des pistes possibles pourrait être l'allocation d'une partie de l'espace publicitaire disponible à ces campagnes.
Votre amendement est satisfait par les dispositions que nous avons votées à l'article 3 : « Les opérateurs de plateforme mettent à disposition une information publique, claire et détaillée sur les dispositifs de recours internes, judiciaires, ainsi que sur les délais de recours dont disposent les victimes de contenus mentionnés au premier alinéa de l'article 6-2 et sur les acteurs en mesure d'assurer l'accompagnement de ces victimes ».
Je vous demande donc de retirer votre amendement, madame Obono.
La Commission rejette l'amendement.
Elle est saisie de l'amendement CL210 de Mme Géraldine Bannier.
Cet amendement prévoit d'obliger les opérateurs de plateforme à mettre en place, outre le dispositif de signalement, un dispositif de prévention afin d'informer leurs utilisateurs des conséquences néfastes de la diffusion de contenus haineux. Le travail de pédagogie n'incombe pas seulement aux familles et à l'école. Les opérateurs doivent aussi y contribuer.
Je vous demanderai de bien vouloir retirer cet amendement car il est trop imprécis. On ne sait pas ce que recouvrent les termes « dispositifs de prévention » ou « conséquences sur les victimes ». Il faut savoir ce que nous pouvons demander comme obligations de moyens aux plateformes. Elles s'exposent en cas de manquement, nous le savons, à des sanctions pouvant aller jusqu'à 4 % de leur chiffre d'affaires.
Nous tenons à cette disposition sur laquelle nous retravaillerons avec mon groupe d'ici à la séance.
L'amendement CL210 est retiré.
Avant l'article 4
La Commission est saisie de l'amendement CL113 de la rapporteure, qui fait l'objet d'un sous-amedement CL294 de Mme Laure de La Raudière.
L'amendement CL113 insère un troisième chapitre relatif au « Rôle du Coonseil supérieur de l'audiovisuel dans la lutte contre les contenus haineux en ligne ».
Mon sous-amendement vise à remplacer les mots « haineux en ligne » par « manifestement illicites ».
Avis défavorable au sous-amendement : par cohérence avec les autres intitulés de chapitre de la proposition de loi, il faut maintenir les mots « contenus haineux en ligne », plus précis que « contenus manifestement illicites ».
Le sous-amendement est retiré.
La Commission adopte l'amendement.
Article 4 (art. 17-3 [nouveau] de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication) : Rôle du Conseil supérieur de l'audiovisuel dans la lutte contre la haine sur internet
La Commission examine l'amendement CL5 de la commission des Affaires culturelles et de l'éducation, qui fait l'objet d'un sous-amendement CL287 de Mme la rapporteure.
L'amendement CL5 vise à renvoyer de façon précise aux dispositions de la loi, dans l'attente d'une refonte plus large des missions du CSA, plutôt que de lui donner une compétence générale en matière de haine en ligne.
La Commission adopte le sous-amendement.
Puis elle adopte l'amendement CL5 sous-amendé.
En conséquence, les amendements CL32 de Mme Emmanuelle Anthoine, CL 39 de Mme Valérie Bazin-Malgras, CL34 et CL35 de Mme Emmanuelle Anthoine, CL41 de M. Jacques Marilossian, CL75 de Mme George Pau-Langevin, CL140 de M. Belkhir Belhaddad, CL200 de M. Erwan Balanant, CL248 et CL250 de Mme Aude Bono-Vandorme, CL208 de Mme George Pau-Langevin, CL154 de Mme Aude Luquet, CL47 de M. Christophe Blanchet, CL251 de Mme Aude Bono-Vandorme, CL271 de M. Jacques Marilossian, CL225 de M. Buon Tan, CL67 de Mme Barbara Bessot Ballot, CL196 et CL177 de M. Erwan Balanant, CL230 de M. Buon Tan, CL63 de M. Guillaume Chiche, CL226 de M. Buon Tan, CL138 de Mme Anne Genetet et CL146 M. Philippe Dunoyer tombent.
L'amendement de la rapporteure pour avis a procédé à une simplification de la rédaction concernant les pouvoirs du CSA. Il fait référence aux dispositions que nous avons votées à l'article 1er, ce qui évite de l'intégrer à cet article.
Ils seront pris en compte puisqu'ils sont intégrés dans la description que nous avons établie ce matin et à laquelle l'amendement renvoie.
Tout vous paraîtra plus clair quand nous disposerons d'une version globale du texte modifié par la commission.
La Commission est saisie de l'amendement CL76 de Mme George Pau-Langevin.
Cet amendement vise à intégrer dans le champ des missions du CSA le contrôle de la mise en oeuvre des moyens technologiques et humains par les opérateurs visés par l'article 1er. L'effectivité des dispositions du texte découle en effet des moyens mis en oeuvre par ces plateformes.
Je comprends le sens de votre amendement. Il est satisfait puisque nous avons inclus dans les obligations de moyens qui incombent aux plateformes l'obligation de mettre en oeuvre les moyens humains ou technologiques pour traiter les signalements. Par ailleurs, nous venons de préciser que le CSA doit veiller à la bonne application de ces dispositions.
L'amendement CL76 est retiré.
La Commission en vient à l'amendement CL265 de Mme Laure de La Raudière.
Nous proposons de donner au CSA des pouvoirs d'enquête et d'audit nécessaires à l'exercice de ses missions auprès des opérateurs de plateformes.
Votre amendement m'a permis d'identifier une lacune. Le CSA dispose déjà de pouvoirs d'enquête au titre de l'article 19 de la loi de 1986 mais ce dernier n'intègre pas les plateformes. Une mise à niveau serait donc nécessaire. C'est en ce sens qu'il faudrait proposer une modification en séance, madame de La Raudière.
Je devrais venir plus souvent à la commission des Lois. Merci de m'y accueillir, madame la présidente. (Sourires.)
L'amendement CL265 est retiré.
La Commission en vient à l'amendement CL247 de M. François Pupponi
Les discussions sur la définition de l'antisémitisme sont récurrentes et le débat sur la proposition de résolution visant à lutter contre l'antisémitisme a été récemment reporté. Il faut être précis pour permettre que certains propos soient sanctionnés.
Il ne s'agit pas d'expliciter ou de redéfinir les notions de notre droit mais de s'assurer que notre droit puisse bel et bien s'appliquer. La proposition de résolution reviendra bientôt en débat et ce sera le cadre adéquat pour mener cette discussion.
La Commission rejette l'amendement.
Elle est saisie de l'amendement CL261 de Mme Laure de La Raudière.
La liberté d'expression est une matière délicate et il me paraît audacieux de doter la même autorité indépendante du pouvoir d'enquêter, de constater, de définir la norme et la règle, et du pouvoir de sanctionner. Je considère qu'il revient au juge judiciaire d'assurer la sanction des contenus haineux. Nous devons laisser le CSA améliorer les pratiques et vérifier le respect des normes établies.
Nous laissons le pouvoir de sanction des contenus illicites au juge judiciaire. Je vous renvoie à l'article 1er : nous avons créé un délit pour sanctionner les plateformes qui ne retirent pas les contenus manifestement haineux sous vingt-quatre heures.
Le CSA est doté d'un pouvoir de supervision générale qui porte sur l'accompagnement dans la mise en oeuvre de l'obligation de retrait, le contrôle des obligations de moyens et du comportement des plateformes. Seule l'autorité judiciaire peut rentrer dans une approche au cas par cas et statuer sur les relations entre un utilisateur et la plateforme.
Avis défavorable à cet amendement qui va à l'encontre de l'architecture du dispositif de la proposition de loi.
La Commission rejette l'amendement.
Elle examine ensuite l'amendement CL6 de la commission des Affaires culturelles et de l'éducation.
Le présent amendement vise à établir un lien plus clair entre la transmission d'informations régulières de la part des plateformes au CSA et les recommandations que ce dernier peut prendre dans le domaine de la lutte contre les contenus haineux.
Je sais que cet ajout n'est pas compatible avec les amendements qui viennent d'être adoptés mais il me paraît important d'obliger les plateformes à transmettre régulièrement des informations.
Votre amendement établit un lien direct entre informations transmises par les plateformes et recommandations. Or le CSA peut en émettre sans se fonder sur cette base.
Je vous demande de bien vouloir retirer cet amendement.
L'amendement CL6 est retiré.
La Commission adopte ensuite l'amendement de coordination CL114 de la rapporteure.
Puis elle examine, en discussion commune, les amendements CL115 de la rapporteure et CL170 de Mme Céline Calvez.
L'amendement CL115 propose de permettre au CSA de formuler non seulement des recommandations mais aussi des bonnes pratiques et des lignes directrices pour la bonne application des obligations mentionnées aux articles 6-2 et 6-3 de la LCEN que nous avons créés. Nous renforçons le rôle d'accompagnement du CSA.
L'accent mis sur les bonnes pratiques et les lignes directrices va dans le bon sens. Il satisfera ceux qui insistent sur le travail de prévention que doivent aussi mener les plateformes.
Ces nouvelles tâches entraîneront pour le CSA, qui oeuvre avant tout dans le domaine audiovisuel, beaucoup de travail supplémentaire. Il devra mobiliser des moyens financiers supplémentaires. Comment cela va-t-il se traduire dans la prochaine loi de finances ?
La Commission adopte l'amendement CL115.
En conséquence, les amendements CL170 et CL7 de la commission des Affaires culturelles et de l'éducation tombent.
La Commission en vient à l'amendement CL147 de M. Philippe Dunoyer.
L'amendement ouvre la possibilité pour le CSA d'enjoindre sous astreinte les opérateurs qui ne se conformeraient pas aux recommandations qu'il a édictées.
Dans le dispositif actuellement prévu, les opérateurs font l'objet d'une mise en demeure s'ils n'exécutent pas les recommandations du CSA. Il n'est pas prévu de dispositif d'astreinte. Le système est déjà assez lourd et dissuasif car si les plateformes ne s'exécutent pas dans le délai imparti, elles s'exposent à une sanction pouvant aller jusqu'à 4 % de leur chiffre d'affaires mondial. Avis défavorable.
La Commission rejette l'amendement.
Elle examine, en discussion commune, l'amendement CL8 de la commission des Affaires culturelles et de l'éducation, qui fait l'objet d‘un sous-amendement CL288 de la rapporteure, et les amendements identiques CL178 de M. Erwan Balanant et CL237 de M. Paul Molac.
Le sous-amendement CL288 vise à préciser que le bilan porte non seulement sur l'application des dispositions par les opérateurs mais aussi sur l'effectivité des obligations qui s'imposent à eux.
La Commission adopte le sous-amendement.
Puis elle adopte l'amendement CL8 sous-amendé.
En conséquence, les amendements CL178 et CL237 tombent
La Commission en vient à l'amendement CL9 de la commission des Affaires culturelles et de l'éducation.
Il s'agit de permettre au CSA de rendre publiques tout ou partie des informations que les opérateurs de plateforme seront tenus de lui transmettre mensuellement.
Je vous demande de bien vouloir retirer votre amendement qui n'est pas cohérent avec l'équilibre auquel nous sommes parvenus.
L'amendement CL9 est retiré.
La Commission examine, en discussion commune, l'amendement CL116 deuxième rectification de la rapporteure et CL10 de la commission des Affaires culturelles et de l'éducation.
Cet amendement décrit la procédure que devra suivre le CSA avant de prononcer une sanction à l'encontre des opérateurs qui n'auraient pas respecté leurs obligations.
La première version de la proposition de loi se contentait d'un paragraphe, à l'article 1er. J'ai fait le choix d'entrer dans les détails pour que l'on puisse bien comprendre ce qui se passe lorsqu'une personne informe le CSA d'un manquement.
Nous précisons d'abord que le CSA intervient en cas de manquement par un opérateur au devoir de coopération résultant de l'article 6-3 modifié par les dispositions que nous avons votées – obligations en termes de moyens humains et technologiques proportionnés, obligations en matière de signalement, d'information, de coopération judiciaire, respect des recommandations émises par le CSA en matière d'obligations de retrait.
La décision du CSA se fondera sur deux éléments.
Il s'agit, d'une part, du respect des obligations détaillées dans le nouvel article 6-3.
Il s'agit, d'autre part, des conditions dans lesquelles l'opérateur se conforme aux recommandations que le CSA a émises. Il appréciera le caractère insuffisant ou excessif du comportement de l'opérateur en matière de retrait des contenus.
Fort des informations qu'il aura reçues, il se saisira pour engager une procédure.
Il enverra d'abord une mise en demeure pour que les opérateurs se conforment aux recommandations. C'est à ce stade qu'ils pourront rectifier le tir. C'est là où nous nous éloignons du système allemand où la sanction est directement appliquée.
Si une fois le délai imparti écoulé, le CSA doit à nouveau se saisir, il peut prononcer une sanction pouvant aller jusqu'à 4 % du chiffre d'affaires mondial.
Il peut rendre publiques à la fois les mises en demeure et les sanctions prononcées. Il peut également ordonner leur insertion dans des publications, journaux ou tout support qu'il désignera.
Par coordination, cet amendement transfère au CSA le contrôle de la mise en oeuvre des dispositions de l'article 6-1 de la LCEN, relatives notamment au blocage de sites terroristes, qui relève aujourd'hui de la compétence d'une personnalité qualifiée désignée au sein de la Commission nationale de l'informatique et des libertés.
L'amendement CL10 est retiré.
J'aimerais avoir quelques précisions. Cet article ayant subi plusieurs réécritures, je ne suis pas certaine d'avoir bien compris le dispositif. Les recommandations du CSA ont pour mission de lutter contre la diffusion de contenus manifestement illicites, mais il faut veiller aussi à ce que les plateformes ne remettent pas en cause la liberté d'expression. Cette préoccupation a-t-elle sa place dans votre texte ?
Imaginons qu'une plateforme supprime trop de contenus : dans ce cas, appliquera-t-on la même méthodologie ? Qui va contrôler les recommandations du CSA dans ce domaine ? La jurisprudence relative aux contenus manifestement illicites est assez précise. En revanche, il est parfois plus difficile de qualifier les atteintes à la liberté d'expression. Mes questions sont nombreuses, mais c'est une manière de clarifier les choses en vue du débat en séance.
L'amendement de la rapporteure, qui détaille la procédure que le CSA devra suivre avant le prononcé d'une sanction, rend sans objet l'amendement que nous avons adopté en commission des Affaires culturelles. Le problème, c'est que nous n'avons aucune idée du nombre de situations que le CSA aura à examiner, ni du nombre de mises en demeure qu'il devra prononcer. Ce qui est sûr, c'est qu'il aura beaucoup de travail. J'aimerais donc savoir s'il aura aussi les moyens humains pour y faire face.
Madame de La Raudière, une décision du CSA pourra faire l'objet d'un recours administratif devant le Conseil d'État.
Vous posez également la question des plateformes qui procéderaient à des retraits excessifs : je pensais m'être expliquée clairement à ce sujet, mais je vais y revenir. Le CSA se fondera sur deux éléments pour constater un manquement : la méconnaissance des obligations de moyens et le non-respect de ses recommandations relatives au retrait des contenus illicites, ainsi que des bonnes pratiques qui doivent orienter les plateformes. Le CSA a surtout vocation à sanctionner les plateformes qui n'exercent pas des contrôles suffisants – c'est l'objet de cette loi – mais il pourra évidemment sanctionner celles qui procèdent à des retraits excessifs. Son rôle est d'analyser la conformité de la plateforme aux règles prescrites, dans une logique de régulation administrative.
Monsieur Reiss, il est vrai que la mission du CSA, aujourd'hui, consiste essentiellement à émettre des recommandations. Il devra effectivement être à la hauteur des nouvelles missions que nous lui confions. Le ministre pourra sans doute vous donner des précisions sur ce sujet en séance.
La Commission adopte l'amendement CL116, deuxième rectification.
Elle examine ensuite l'amendement CL77 de Mme George Pau-Langevin.
Avec cet amendement, nous proposons que le CSA crée une base de données compilant l'ensemble des décisions rendues par les opérateurs mentionnés à l'article 1er sur le fondement de ce même article. Cet amendement rejoint certaines des dispositions que vous avez introduites dans ce texte : il s'agit de disposer d'une collection de bonnes pratiques et de créer des références pour aider les plateformes à prendre les bonnes décisions.
C'est déjà l'objet des recommandations du CSA, qui seront publiques. Votre amendement me paraissant satisfait, je vous invite à le retirer. À défaut, j'émettrai un avis défavorable.
La Commission rejette l'amendement.
Puis elle adopte l'amendement de cohérence CL117 de la rapporteure.
En conséquence, les amendements identiques CL59 de M. M'Jid El Guerrab et CL282 de M. Paul Molac tombent.
La Commission en vient à l'examen de l'amendement CL169 de Mme Céline Calvez.
Avec cet amendement, nous proposons que les plateformes soient obligées de signaler aux autres plateformes les contenus haineux qu'elles auront repérés, afin d'éviter leur propagation.
Votre amendement vise à renforcer la coopération des plateformes dans la lutte contre la diffusion des contenus haineux, notamment des vidéos en direct. L'attentat de Christchurch a montré combien ce type de coopération était nécessaire pour éviter la propagation de ces contenus.
Cela étant, la rédaction de votre amendement présente plusieurs problèmes. Par ailleurs, il porte sur l'article 4, qui est relatif aux pouvoirs du CSA. Or ce n'est pas son objet, à moins que vous ne souhaitiez confier au CSA l'organisation de la coopération des plateformes… Quoi qu'il en soit, je vous invite à retirer cet amendement.
L'amendement est retiré.
La Commission en vient à l'amendement CL222 de M. Buon Tan.
Cet amendement propose d'appliquer à la lutte contre la haine sur internet le principe du « name and shame ».
L'idée est de doubler les sanctions financières d'une sanction atteignant directement la réputation des sites condamnés. Certaines entreprises, parce qu'elles sont très riches, sont peu sensibles aux sanctions financières, mais elles le sont davantage à celles qui touchent leur réputation. Nous proposons donc que les sanctions prononcées par le CSA soient publiées sur son site internet et, aux frais de l'entreprise sanctionnée, sur d'autres supports.
Votre amendement est partiellement satisfait. L'amendement CL116 deuxième rectification, que nous venons de voter, prévoit déjà la publication des sanctions prononcées par le CSA. Vous proposez d'aller jusqu'à l'astreinte journalière, mais le dispositif que nous proposons me semble déjà suffisamment lourd et dissuasif. Je vous invite donc à retirer votre amendement.
L'amendement est retiré.
La Commission adopte l'article 4 modifié.
Après l'article 4
La Commission examine l'amendement CL132 de M. Éric Ciotti.
Je n'ai pas eu l'occasion de le faire ce matin, mais je veux saluer l'esprit de ce texte, l'objectif qu'il poursuit et son exigence. Aujourd'hui, un grand nombre de réseaux sociaux sont devenus des vecteurs de haine et il importait d'agir. J'avais moi-même déposé une proposition de loi sur ce sujet, qui rejoignait totalement vos préoccupations.
Je voterai donc ce texte, mais je pense qu'il y manque une disposition relative à la fin de l'anonymat. Certains réseaux sociaux, notamment Twitter, sont le lieu d'un déferlement de propos haineux absolument insupportables, où s'expriment notamment l'antisémitisme et la propagande islamiste, et dont les auteurs restent anonymes. Il me semblerait donc opportun – je sais que le débat a été ouvert et que vous l'avez envisagé – de mettre fin à l'anonymat. Tel est l'objet de cet amendement.
À partir d'un certain volume d'utilisateurs, dont le seuil pourrait être fixé par décret, nous proposons que les plateformes soient obligées de vérifier l'identité de leurs utilisateurs. Toute personne souhaitant ouvrir un compte sur Twitter ou Facebook devrait déclarer son identité et fournir une déclaration de responsabilité.
Cet amendement mettrait fin à l'anonymat, qui permet de diffuser des discours haineux en toute impunité.
Vous soulevez un point important, qui va me donner l'occasion de corriger une idée reçue. Si certains utilisateurs croient effectivement être anonymes, c'est parce qu'ils méconnaissent les informations dont les plateformes disposent à leur sujet. Nombre d'entre eux profèrent leur discours sans aucune retenue parce qu'ils se croient anonymes. Or le système actuel n'est pas celui de l'anonymat, mais du pseudonymat. L'anonymat véritable est extrêmement rare sur les réseaux sociaux et, plus globalement, sur internet, parce que les plateformes ont les moyens d'identifier les utilisateurs au titre de la LCEN.
En effet, lorsqu'elles font l'objet d'une réquisition judiciaire, les plateformes doivent transmettre, non seulement l'adresse IP, mais des informations relatives à l'identité de la personne qui a commis un délit. Dans certaines matières, par exemple la lutte contre le terrorisme, le taux de réponse aux réquisitions judiciaires est extrêmement élevé, de l'ordre de 95 %. C'est la preuve que les dispositions de la LCEN sont appliquées et qu'elles fonctionnent dans ce domaine. En revanche, face aux types de contenus haineux que nous évoquons depuis ce matin, le taux de réponse est bien moins élevé. C'est la preuve que cela relève de la bonne volonté des plateformes.
Le dispositif que j'ai proposé et que nous avons voté tout à l'heure, en matière de coopération judiciaire, comprend deux volets. Premièrement, nous renforçons la sanction pénale qui s'applique aux plateformes qui ne coopèrent pas, en la faisant passer à 1 250 000 euros. Deuxièmement, nous les obligeons à avoir un référent légal, un interlocuteur sur le territoire national français, qui aura pour mission de recevoir les demandes de l'autorité judiciaire. Cela signifie que les plateformes auront un représentant en France chargé d'échanger avec nos autorités judiciaires. La combinaison de ces deux dispositifs doit nous permettre de régler le problème.
La proposition que vous faites de demander à chaque utilisateur une pièce d'identité présente, de mon point de vue, un risque disproportionné, puisque Facebook disposerait d'une base de données de toutes nos pièces d'identité. Or je ne veux pas aller dans ce sens-là.
La rapporteure a raison de souligner combien il serait dangereux qu'un opérateur privé puisse stocker nos cartes d'identité. Au-delà de la question de l'anonymat, dont elle a justement rappelé qu'il n'existe jamais vraiment, je voudrais appeler votre attention sur la question de l'éducation. Les gens, parce qu'ils pensent s'exprimer de façon anonyme, à visage couvert, se permettent sur internet, et particulièrement sur les réseaux sociaux, des choses qu'ils ne se permettraient jamais dans la vraie vie.
On compare souvent Facebook au café du commerce. Mais, au café du commerce, on ne se permet pas les mêmes choses que sur internet, d'abord parce que cela peut finir en bagarre. Il faut éduquer les gens, leur rappeler ce qui se fait et ce qui ne se fait pas. Vous avez dit, madame la rapporteure, que l'on ne pouvait pas tout interdire et que les simples injures ne seraient pas sanctionnées. Mais dans le monde réel, on ne tolère pas les injures. Il faut donc trouver le moyen qu'elles deviennent également intolérables dans le monde virtuel. Votre texte introduit de belles avancées, mais elles ne suffiront pas, car il faudrait relier tout cela à la question de l'éducation et du savoir-vivre sur internet.
Ce débat est intéressant. Nous savons notre collègue Éric Ciotti très attaché à la sécurité de nos concitoyens et nous pouvons partager sa préoccupation, mais j'invite chacun à prendre la mesure de ce dont nous parlons. On ne peut pas accepter qu'un grand opérateur privé, qui maîtrise un réseau social et qui est même en train de lancer une monnaie virtuelle, possède la pièce d'identité de l'ensemble de nos concitoyens, connaisse leurs opinions politiques et leurs modes de consommation… Vous qui êtes attaché à la sécurité, ne fabriquez pas une pieuvre, un monstre qui remettrait en cause nos libertés individuelles. Il faut évidemment que la justice puisse intervenir lorsque c'est nécessaire, mais la mesure que vous proposez aurait des conséquences désastreuses. Sur ce sujet, je marche sur les pas de la rapporteure.
Nous sommes au coeur du débat. Jusqu'ici, nous nous sommes intéressés à la haine et aux messages haineux, mais assez peu à leurs auteurs. Or notre objectif ne doit pas être de condamner une pensée, ce qui serait grave, mais un acte, celui qui consiste à produire un contenu et à le diffuser sur les réseaux sociaux.
L'anonymat est certes relatif, mais il existe des moyens de le préserver. On peut se cacher derrière un réseau privé virtuel – Virtual Private Network (VPN) – ou utiliser une adresse à l'étranger, par exemple aux États-Unis. Il ne faut pas sous-estimer les moyens qui permettent, aujourd'hui, de préserver son anonymat.
J'aimerais réagir aux propos de notre collègue Erwan Balanant. Facebook, c'est tout, sauf le café du commerce ! Ne laissons pas croire une bêtise pareille ! Quand je suis au café du commerce avec mes amis, je peux leur proposer de changer de café. Or ce n'est pas possible avec Facebook, puisqu'il s'agit d'un système captif. Il faudrait que nous ayons un débat sur l'interopérabilité des réseaux sociaux, et ce n'est pas le lieu, mais nous n'arriverons à briser ce système fou que lorsqu'il sera possible de quitter un réseau social avec ses amis pour aller sur un autre réseau social. On se rapprochera un peu, alors, du café du commerce, mais on en est encore très loin… Toute la valeur de Facebook – si je puis dire –, c'est précisément d'avoir réussi à capturer, non seulement une masse considérable de personnes, mais aussi d'informations et de contenus relatifs à leur vie privée.
Il faut faire preuve d'un peu de pragmatisme. On ne peut pas imaginer que les réseaux sociaux mettent brutalement fin au pseudonymat et à l'anonymat. Lorsque Cédric O, le secrétaire d'État chargé du numérique, est venu devant notre commission au début du mois de juin, il a pris plusieurs exemples très parlants, notamment celui des enfants qui jouent à des jeux vidéo en ligne : il a rappelé que c'était une bonne chose qu'ils continuent de s'identifier avec des pseudonymes du type bisounours767.
Si certains internautes ont effectivement un sentiment d'impunité, je pense que cette loi va aider à le combattre. Lorsque plusieurs jugements auront été rendus publics et que des personnes auront été prises la main dans le sac, en train de proférer des injures discriminatoires sur internet, je pense que le message passera.
Je voulais introduire dans notre débat la question de l'usurpation d'identité, qui est aujourd'hui très mal sanctionnée sur un certain nombre de réseaux sociaux, notamment sur le plus connu d'entre eux. L'amendement d'Éric Ciotti aurait le double avantage de renforcer la responsabilité pénale des acteurs qui utilisent les plateformes et de faciliter la lutte contre un certain nombre d'abus, y compris l'usurpation d'identité.
J'ajouterai avec un peu de malice que sur un site qui est très à la mode en ce moment – je veux parler de celui du référendum sur la privatisation des Aéroports de Paris –, à la fin d'un long formulaire, on vous demande votre numéro de carte d'identité ou de passeport, ainsi que d'autres informations. Je ne sais pas si ce site est géré par un prestataire ayant reçu une délégation de l'État, mais cela montre que les dispositifs existent déjà et que l'on peut, en toute confidentialité, vérifier l'identité de ceux qui remplissent le formulaire.
Bien sûr, mais si l'on considère que les plateformes sont des lieux d'expression démocratique, des places publiques et qu'un citoyen s'exprime aussi…
Je m'arrête là, car la phrase d'Alexis Corbière conclut magnifiquement ce propos. (Sourires.)
Madame la rapporteure, mes chers collègues, j'ai bien entendu vos arguments. Vous avez voté ce matin des dispositions qui renforcent les sanctions pénales applicables, en les portant à 1 250 000 euros, et cela va dans le bon sens. Il est vrai que tout est traçable aujourd'hui et qu'une enquête judiciaire poussée permet d'identifier les auteurs de messages criminels ou les organisateurs d'un attentat. Tout cela est vrai, mais nous sommes déjà, dans ces cas-là, dans le cadre de l'enquête judiciaire et de la sanction pénale. Vous renforcez les outils existants, en imposant une sanction pénale aux plateformes qui ne coopéreraient pas. Je l'avais proposé sous la précédente législature : c'est ce que l'on avait appelé « l'amendement IPhone », parce que je proposais d'interdire la commercialisation des appareils dont les opérateurs ou les constructeurs refusaient de collaborer avec la justice, comme cela était arrivé aux États-Unis, après un attentat.
Je rejoins un peu Erwan Balanant sur l'aspect éducatif : il faut renforcer la prévention et responsabiliser les gens. En revanche, je ne partage pas la crainte, exprimée par plusieurs collègues, de voir se constituer un fichier. Malheureusement, ces réseaux ont déjà des outils beaucoup plus intrusifs et dangereux, qui leur permettent d'influer sur les pratiques et les modes de pensée et de consommation. Ils ont déjà créé un fichier mondial de 2,5 milliards d'utilisateurs qui est tout à fait terrifiant.
J'ai bien conscience que mon amendement peut être difficile à appliquer et qu'il n'est pas parfait. Il me semblerait pourtant opportun de mettre fin à l'anonymat et de responsabiliser les gens.
La Commission rejette l'amendement CL132.
Article 5 (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Renforcement de l'obligation de coopération des opérateurs numériques avec l'autorité judiciaire en matière de lutte contre les contenus illicites
La Commission examine l'amendement CL118 de la rapporteure tendant à supprimer l'article 5.
Cet amendement tend à supprimer les dispositions relatives à la coopération judiciaire, car nous les avons déplacées dans le chapitre relatif au devoir de coopération des plateformes, où nous avons créé un article additionnel, après l'article 3.
La Commission adopte l'amendement.
En conséquence, l'article 5 est supprimé et les amendements identiques CL211 de Mme Marie-France Lorho et CL238 de M. Jean-Félix Acquaviva tombent, ainsi que les amendements CL241 de M. Jean-Félix Acquaviva, CL60 de M. M'Jid El Guerrab, CL79 de Mme George Pau-Langevin, CL24 de M. Nicolas Démoulin et CL80 de Mme George Pau-Langevin.
Après l'article 5
La Commission examine l'amendement CL119 de la rapporteure.
Cet amendement vise à créer le chapitre IV de cette loi, qui s'intitulera : « Amélioration de la lutte contre la diffusion de contenus haineux en ligne ». Il concerne, non plus les plateformes, mais les sites à caractère haineux.
La Commission adopte l'amendement.
Elle examine ensuite l'amendement CL23 de M. Nicolas Démoulin.
Je vous remercie, madame la présidente, de m'accueillir dans cette belle commission. Cet amendement concerne les mineurs, un public particulièrement concerné par le cyber-harcèlement, notamment dans le cadre scolaire. Entre 2010 et 2014, la proportion de jeunes âgés de 9 à 16 ans concernés par le cyber-harcèlement est passée de 8 à 12 %.
Dans la mesure où le fait qu'une infraction soit commise sur un mineur constitue une circonstance aggravante en matière pénale, il apparaît logique d'alourdir les sanctions, notamment financières, lorsqu'un opérateur manque à son obligation de retirer un contenu haineux impliquant un ou plusieurs mineurs. Je propose ainsi de porter la peine financière à 300 000 euros.
Je comprends votre objectif et j'y souscris, puisqu'il s'agit de protéger davantage les mineurs. Cela étant, votre amendement me semble poser un double problème, à la fois juridique et opérationnel – et je vous garantis que j'ai passé beaucoup de temps à y réfléchir ! Au moment où un commentaire est publié, une plateforme n'a aucun moyen de savoir s'il vise un mineur. Il faudrait donc prendre en compte les infractions signalées par des mineurs, mais cela n'existe pas en droit : une circonstance aggravante est toujours liée à la victime, et non à la personne qui signale un fait répréhensible.
En dépit du temps que j'y ai passé, je n'ai pas trouvé de solution pour rendre votre amendement opérationnel. Je suis donc au regret de vous demander de le retirer. À défaut, j'émettrai un avis défavorable.
Je suis ravi que vous ayez passé du temps à trouver une solution. Puis-je continuer à travailler sur le sujet ?
L'amendement est retiré.
Article 6 (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) : Simplification de la procédure de blocage et de déréférencement des sites haineux et possibilité pour l'autorité administrative d'enjoindre le blocage de sites miroirs
La Commission est saisie de l'amendement CL188 de Mme Muriel Ressiguier, tendant à supprimer l'article 6.
L'amendement CL188 tend à supprimer l'article 6 qui, d'après nous, présente quelques problèmes, s'agissant de la garantie des droits.
Il attribue à une autorité administrative indéterminée un pouvoir d'injonction, alors que les décisions de justice ont déjà force exécutoire. Cette disposition nous semble être de nature à réduire les libertés fondamentales. Le pouvoir d'injonction accordé à l'autorité administrative semble supplanter les compétences actuellement attribuées au pouvoir judiciaire. Je ne développe pas davantage mon argumentation, car nous avons déjà débattu de cette question.
Suivant l'avis défavorable de la rapporteure, la Commission rejette l'amendement.
Puis elle examine l'amendement CL239 de M. Jean-Félix Acquaviva.
Cet amendement propose une nouvelle rédaction de l'article 6. Dans sa rédaction actuelle, il supprime en effet de grands principes du droit de l'internet, sans garantir l'efficacité du nouveau dispositif.
L'alinéa 2 prévoit la suppression du principe de subsidiarité, un principe fondamental du droit de l'internet assurant, notamment dans un souci d'efficacité, l'équilibre des responsabilités des acteurs de l'internet. Ce principe dispose que, dans le cas où un juge constate la nécessité de faire disparaître un contenu illicite, il se tourne de manière préalable vers celui qui aura été le plus actif, à savoir l'auteur ou l'éditeur, puis vers celui qui est apte à retirer le contenu ou à en rendre l'accès impossible, à savoir l'hébergeur du site et, enfin, vers le fournisseur d'accès, qui ne fait que transporter passivement des contenus sans pouvoir les supprimer à la source. Ce n'est qu'en cas d'inaction de la part de l'hébergeur, qui est le mieux à même d'agir de façon efficace en cas d'inaction de l'auteur ou de l'éditeur, que le juge judiciaire peut ordonner au fournisseur d'accès de bloquer l'accès au site internet.
Ce principe trouve son fondement dans la nécessité d'agir de la manière la plus proportionnée et efficace possible en matière de retrait de contenus. Il donne la possibilité à l'hébergeur de retirer le contenu illicite, sans impacter les autres contenus hébergés. Les faits incriminés par la présente proposition de loi interviennent, dans la plupart des cas, sur des plateformes hébergeant de très grandes quantités de contenus, auxquels le blocage par le fournisseur d'accès conduirait à empêcher tout accès, ce qui est évidemment disproportionné.
Le présent amendement propose donc le maintien du principe de subsidiarité, en prévoyant la mise en demeure préalable de l'éditeur du contenu haineux illicite par l'autorité administrative et, en cas d'inaction de celui-ci, une saisine de l'autorité judiciaire par l'autorité administrative. Le juge pourra alors demander le retrait du contenu haineux illicite à l'hébergeur ou, à défaut, se tourner vers le fournisseur d'accès en dernier recours.
L'article 6 donne également le pouvoir à l'autorité administrative de décider du blocage d'un site miroir par un fournisseur d'accès, à partir du moment où une décision de justice a déjà été rendue pour des contenus similaires. Or, selon l'avis rendu par le Conseil d'État le 16 mai 2019 sur cette proposition de loi, les exigences constitutionnelles ne permettent pas de procéder à l'interdiction des contenus miroirs, quels que soient le degré et la gravité de leur illicéité, sans l'intervention d'un juge.
Cet amendement propose donc que l'autorité administrative puisse également saisir l'autorité judiciaire par requête – une voie beaucoup plus rapide que le référé, car non contradictoire – pour que le juge ordonne le retrait du contenu illicite miroir ou, à défaut, le blocage de sites miroirs.
Ce modèle de blocage judiciaire sur demande de l'autorité administrative en cas d'inaction des éditeurs et hébergeurs était d'ailleurs mentionné dans le rapport « Renforcer la lutte contre le racisme et l'antisémitisme sur internet », qui a été remis au Premier ministre le 20 septembre 2018, en amont de la présente proposition de loi.
Je vous remercie pour cette présentation exhaustive de votre amendement. Nous sommes d'accord sur de nombreux points, notamment sur le mécanisme de blocage judiciaire et sur le fait que l'autorité administrative ne peut intervenir qu'après décision du juge. Nous pensons également qu'elle doit pouvoir ressaisir le juge par voie de référé ou de requête, pour que le dispositif soit plus efficace. Nous sommes donc d'accord sur toute la deuxième partie de votre exposé.
Nous avons en revanche une divergence sur la première partie, relative au principe de subsidiarité. Je tiens à préciser que nous ne faisons pas évoluer ce principe en ce qui concerne l'éditeur : c'est évidemment à lui que nous nous adressons en tout premier lieu. Cela étant, nous proposons de ne pas retenir les trois étapes – éditeur, hébergeur puis fournisseur d'accès – car cela allonge considérablement les procédures. Pour obtenir la fermeture du premier site « Démocratie participative », il a par exemple fallu neuf mois de procédures. Or nous devons agir vite. C'est pourquoi nous proposons qu'hébergeurs et fournisseurs d'accès soient associés pour créer une barrière de protection sur le territoire national.
Nous visons d'abord l'éditeur. S'il ne répond pas, nous passons aux hébergeurs et aux fournisseurs d'accès, ainsi qu'aux moteurs de recherche, ce qui permet de créer une barrière de protection sur le territoire national. Si le juge prononce une interdiction de reprise de ces contenus, l'autorité administrative, à savoir l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC), peut adresser une notification aux fournisseurs d'accès et aux hébergeurs, leur demandant de dupliquer cette décision à chaque fois qu'un site miroir se créera.
Du fait de notre désaccord sur la subsidiarité, je vous invite à retirer votre amendement. À défaut, j'émettrai un avis défavorable.
L'amendement est retiré.
La Commission adopte l'amendement rédactionnel CL120 de la rapporteure.
En conséquence, les amendements CL51 de Mme Laurence Vichnievsky et CL227 de M. Buon Tan tombent.
La Commission examine ensuite l'amendement CL121 rectifié de la rapporteure, qui fait l'objet des sous-amendements CL216 et CL217 de M. Jean-Michel Mis.
Cet amendement précise le dispositif que je viens d'exposer dans ma réponse à M. Acquaviva.
Les sous-amendements CL216 et CL217 visent à inscrire dans le champ des dispositions relatives aux sites miroirs, respectivement le cyber-harcèlement et les vidéos postées dans un esprit de vengeance pornographique, qui concernent parfois des mineurs.
J'ai deux interrogations au sujet de vos sous-amendements. Premièrement, l'article que nous examinons ne concerne pas les obligations qui s'appliquent aux plateformes. Deuxièmement, il me semble que nous sortons ici du champ qui a été défini par le Conseil d'État. Je vous invite donc à retirer votre amendement, pour me laisser le temps d'interroger le Conseil d'État sur ce deuxième point.
Les sous-amendements sont retirés.
La Commission adopte l'amendement CL121 rectifié.
En conséquence, les amendements CL82 et CL81 de M. Hervé Saulignac, CL262 de Mme Laure de La Raudière et CL83 M. Hervé Saulignac tombent.
La Commission en vient à l'examen de l'amendement CL189 de M. Ugo Bernalicis.
Cet amendement vise à introduire une possibilité de recours en cas de blocage, lorsqu'il existe un risque d'entrave à la liberté d'expression. On l'a souvent, dit, le premier bilan de la loi allemande du 1er janvier 2018 montre que les plateformes pratiquent une forme de censure très sévère qui, avec le recul, s'avère souvent abusive.
Avec votre texte, les plateformes vont être amenées à jouer un rôle qui est plutôt dévolu aux juridictions, ce qui aura pour effet de limiter la liberté d'expression. Nous entendons, avec cet amendement, nous prémunir de ce danger.
Monsieur Corbière, j'avais un doute en lisant votre amendement, que votre exposé a confirmé : l'article 6 ne concerne pas les plateformes, mais les sites haineux. Nous ne sommes donc pas dans le champ de ce que visait la loi allemande. Nous cherchons seulement à rendre plus effectives certaines dispositions du droit français.
J'insiste sur le fait qu'il s'agira d'une décision judiciaire : c'est un juge qui décidera du blocage ou du déréférencement d'un site. Pour reprendre l'exemple de « Démocratie participative », ce site a utilisé successivement un grand nombre de noms de domaine, comme .bis, .org, .website ou .host. L'auteur de ce site a d'ailleurs twitté qu'il avait acheté plus de 200 noms de domaines : cela signifie qu'il y a 200 sites miroirs à bloquer. Notre objectif est de pouvoir les bloquer plus rapidement, mais le juge interviendra en amont et en aval.
Ma collègue Danièle Obono me dit que cela ne correspond pas à la lecture que nous faisons des choses. Je lui fais confiance et vais donc maintenir mon amendement.
La Commission rejette l'amendement.
Puis elle adopte l'article 6 modifié.
Après l'article 6
La Commission examine, en discussion commune, les amendements CL12 de la commission des Affaires culturelles et de l'éducation, CL179 de M. Erwan Balanant, CL131 de M. Raphaël Gérard, CL151 de M. Philippe Dunoyer, CL203 de M. Michel Larive et CL150 de M. Philippe Dunoyer.
L'amendement CL12 vise à préciser que la lutte contre la diffusion de messages haineux en ligne, que ce soit en tant qu'émetteur ou que simple utilisateur, doit impérativement faire partie du programme scolaire, en particulier de la formation à l'utilisation responsable des outils et ressources numériques.
Dans la continuité des débats que nous avons eus et des propositions que je vous ai faites sur le cyber-harcèlement et le harcèlement scolaire, l'amendement CL179 vise à renforcer la prévention autour de la haine sur internet, en en faisant une partie intégrante de la mission d'information sur les violences, qui incombe aux écoles, aux collèges et aux lycées, au sens de l'article L. 121-1 du code de l'éducation.
En effet, un collégien sur cinq est concerné par la cyber-violence. Expliquer ce qui peut constituer un acte entrant dans le champ de la proposition de loi qui nous est soumise, ainsi que le dispositif créé par cette dernière, permettrait indéniablement d'augmenter les prises de conscience et de dissuader certains auteurs de diffuser des contenus susceptibles d'être effacés. Plus généralement, cela renforcerait la prévention autour des violences commises sur internet.
L'amendement CL131 vise à compléter celui que vient de présenter Mme Fabienne Colboc, en faisant de l'éducation au signalement et aux conséquences de celui-ci un élément du programme éducatif des jeunes dans le cadre du code de l'éducation.
Aujourd'hui, on s'aperçoit que les jeunes ont peu tendance à signaler et que, lorsqu'ils le font, c'est surtout en manifestant leur « dislike » – par opposition au « like ». Nous proposons de faire du signalement un acte citoyen, qui donnerait lieu à une formation et qui permettrait de pallier la méconnaissance des conséquences que peut avoir le signalement. Cela nous ramène au débat de ce matin. Nous devons faire oeuvre de pédagogie sur ce sujet. Certaines associations, comme InitiaDroit, pourraient par exemple présenter des cas concrets pour asseoir cette éducation au bon usage du signalement et à ses conséquences.
La lutte contre les propos haineux en ligne passe en effet par la pédagogie et la prévention. L'amendement CL151 propose de sensibiliser les jeunes aux discours de haine sur internet, et donc d'inscrire cet objectif dans le code de l'éducation.
L'amendement CL150 complète, quant à lui, le code de l'éducation en ajoutant un module de formation consacré à la sensibilisation aux discours de haine en ligne.
Nous souhaitons que les plus jeunes soient formés à l'aide d'outils efficaces pour se protéger des discours et de la propagande raciste, antisémite, sexiste et homophobe. Ils sont plus facilement exposés aux contenus haineux et il nous paraît essentiel de leur permettre d'acquérir le discernement nécessaire pour se prémunir face à ces violences.
L'amendement CL203 complète donc le code de l'éducation en prévoyant l'enseignement des mesures visant à lutter contre tout type de propagande raciste, sexiste ou antisémite en ligne, ainsi que des modules contre le cyberharcèlement.
Tous ces amendements ont pour objet d'agir dans le cadre du code de l'éducation afin que les jeunes soient formés et sensibilisés à la question de la haine en ligne. Je souscris pleinement à cet objectif.
Il faut arbitrer parmi les différentes propositions et déterminer où ces enseignements auront la meilleure efficacité.
La rédaction proposée par la commission des Affaires culturelles et de l'éducation, qui ajoute la mention de la lutte contre la haine en ligne à l'article L. 312-9 du code de l'éducation, me semble la meilleure solution car elle a une portée générale. Je suis donc favorable à l'amendement CL12.
L'amendement CL131, pour sa part, est trop précis et il serait satisfait par l'adoption du CL12. L'amendement CL179 modifie les principes généraux du code de l'éducation, et il semble étrange d'y mentionner la haine sur internet alors que d'autres éléments n'y figurent pas. L'amendement CL150 est de moindre portée que l'amendement CL12 et concerne uniquement le second degré. Quant aux amendements CL151 et CL203, ils sont tous deux satisfaits.
L'objectif de tous ces amendements est de sensibiliser les plus jeunes à cette question en l'insérant dans les programmes scolaires : il sera atteint par l'adoption de l'amendement CL12.
La Commission adopte l'amendement CL12.
Puis elle rejette successivement les amendements CL179, CL131, CL151, CL203 et CL150.
En conséquence, l'article 6 bis est ainsi rédigé.
La Commission est saisie de l'amendement CL13 de la commission des Affaires culturelles et de l'éducation.
Cet amendement a pour objet de renforcer la formation des enseignants en matière de lutte contre les contenus haineux en ligne, qui nécessite l'acquisition d'un savoir spécifique et technique que les enseignants, en formation initiale ou continue, n'ont pas nécessairement.
La Commission adopte l'amendement.
En conséquence, l'article 6 ter est ainsi rédigé.
Elle est saisie de l'amendement CL130 de M. Raphaël Gérard.
Il est proposé de qualifier juridiquement la notion de « cyberharcèlement scolaire » dans le code de l'éducation pour donner une légitimité à agir au chef d'établissement. Le phénomène de haine en ligne est souvent lié au cyberharcèlement, et prolonge souvent le harcèlement scolaire. Des dispositions sont déjà prévues par le code pénal, mais une sanction judiciaire est peu dissuasive pour un public de mineurs, et le temps de la justice n'est pas comparable au temps scolaire.
Les travaux de Jean-Pierre Bellon, président de l'Association pour la prévention des phénomènes de harcèlement entre élèves, ont montré qu'une sanction n'est pas toujours efficace, même lorsqu'elle est prononcée par un juge. C'est pourquoi cet amendement prévoit les procédures disciplinaires, qui incluent des mesures de responsabilisation de l'élève, et pas uniquement les sanctions disciplinaires.
Notons qu'il existe bien une circulaire du ministère de l'éducation nationale en matière de prévention et de traitement de la cyberviolence entre les élèves, mais elle est insuffisamment appliquée et ne repose pas sur une définition juridique du harcèlement scolaire, c'est la raison pour laquelle je propose de clarifier cette notion.
Les dispositions relatives à la commission éducative et au règlement intérieur sont de nature réglementaire. En outre, cet amendement est d'ores et déjà satisfait.
Les dispositions réglementaires existent bien, mais dans la réalité, elles sont très mal appliquées et les chefs d'établissements ne s'en sont pas toujours emparés.
La Commission rejette l'amendement.
La Commission est saisie de l'amendement CL149 de M. Philippe Dunoyer.
En Nouvelle-Calédonie, un référent en matière de lutte contre la haine et de harcèlement sur internet a été désigné au sein de chaque établissement scolaire, et les résultats sont probants. Il est proposé de généraliser cette expérience.
Cette fonction pourrait être confiée au responsable du centre de documentation et d'information : il ne s'agit pas de créer un nouveau poste dans les établissements mais de confier une responsabilité spécifique identifiée à une personne référente.
La création d'un référent au sein de chaque établissement du second degré serait assez lourde. De plus, des référents égalité ont été mis en place sans disposition législative ou réglementaire.
Je prends note du succès de cette expérience en Nouvelle-Calédonie, nous verrons ce qu'il est possible de faire pour la généraliser, mais ce n'est pas du domaine de la loi.
La Commission rejette l'amendement.
La Commission est saisie de l'amendement CL42 de M. Éric Bothorel.
Cet amendement vise à empêcher la prolifération de contenus haineux sur internet en privant leurs auteurs de l'incitation financière que constitue la monétisation de leur audience par la publicité en ligne.
Pour le dire sous une autre forme, des crapules gagnent de l'argent grâce aux publicités déposées sur leur site, cet amendement cherche à assécher les revenus qu'ils peuvent tirer de leurs viles activités.
Excellente idée, mais je ne pense pas que le dispositif que vous proposez soit suffisamment abouti. Je ne sais pas si une telle mesure relève de la loi. En outre, aux termes de votre rédaction, dès qu'un contenu haineux apparaîtrait, il serait impossible d'afficher de la publicité. Tout ce qui existe actuellement sur internet ne pourrait plus fonctionner. Il faut y retravailler et attendre la réponse du Gouvernement sur cette question.
C'est sage et raisonnable car je conçois que la rédaction que je propose soulève quelques problèmes. J'en veux pour preuve les nombreuses sollicitations que je reçois depuis deux jours de la part d'organisations qui insistent sur le fait que chacun sait à qui il s'adresse et qu'il n'y a pas de secret dans le monde de la publicité en ligne. Il reste que, dès que l'on brandit une menace de ce type, les choses deviennent plus compliquées.
Madame la rapporteure, j'ai beaucoup de respect pour la ténacité dont vous faites preuve pour lutter contre la haine sur internet : j'aurais la même pour m'assurer que ceux qui l'utilisent ne puissent plus en tirer le moindre profit.
L'amendement est retiré.
Avant l'article 7
La Commission est saisie de l'amendement CL122 de la rapporteure.
La Commission adopte l'amendement.
Article 7 : Rapport sur l'exécution de la loi et les moyens consacrés à la lutte contre les contenus illicites
La Commission est saisie de l'amendement CL174 de Mme Danièle Obono.
Les cyberagressions commencent de plus en plus tôt. Certaines plateformes dédiées à ce jeune public sont souvent les lieux dans lesquels les agressions ciblées contre une personne sont les plus fortes.
Or le harcèlement scolaire, qui passe souvent par des « raids » sur internet, a des conséquences dramatiques. Il faut absolument diagnostiquer ce phénomène pour être en mesure de mettre en oeuvre la prévention adaptée : c'est ce que nous proposons dans cet amendement.
Votre amendement aurait pour effet de limiter le champ du rapport demandé au Gouvernement, en le cantonnant aux victimes de cyberagressions et de harcèlement scolaire en ligne, alors que ce rapport doit traiter de l'ensemble de la question de la haine en ligne.
La Commission rejette l'amendement.
La Commission est saisie de l'amendement CL209 de Mme Muriel Ressiguier.
Cet amendement est proposé par Mme Ressiguier, qui a présidé une commission d'enquête parlementaire sur les groupuscules d'extrême droite. Il a été établi que ces groupuscules sont particulièrement actifs sur les réseaux sociaux, qui constituent leur moyen de communication privilégié. Nous souhaitons donc que le Gouvernement inclue dans son rapport annuel au Parlement contre la cyberhaine un volet sur la propagande xénophobe des groupuscules d'extrême droite.
Cette disposition s'insérerait mal dans l'ensemble du texte. Sur le fond, le rapport porte sur tous les contenus illicites, donc il inclut déjà ces éléments.
La Commission rejette l'amendement.
Elle est ensuite saisie de l'amendement CL144 de M. Philippe Dunoyer.
La pratique de la commission des Lois lors des précédents mandats était de supprimer toutes les demandes de rapport au Gouvernement. Je suis donc étonnée qu'une proposition de loi déposée par une commissaire aux lois contienne une telle demande de rapport, d'autant qu'il sera redondant avec le rapport du CSA sur les moyens consacrés à la lutte contre les contenus illicites. En outre, j'entends souvent dire dans l'hémicycle qu'il faut non pas demander de rapport au Gouvernement, mais procéder nous-mêmes au contrôle de l'application de la loi. Cela étant, je défends l'amendement CL144.
Moi, j'aime bien les rapports. Mais peut-être que Mme la présidente ne partage pas mon avis. Quant à l'amendement présenté, j'y suis défavorable car PHAROS n'a pas d'existence légale.
S'agissant des demandes de rapport, je suis plus nuancée que mes prédécesseurs et j'ai notamment intégré de telles demandes dans le projet de loi sur la justice pour évaluer l'efficacité des peines.
La Commission rejette l'amendement.
Puis elle adopte l'article 7 sans modification.
Après l'article 7
La Commission est saisie de l'amendement CL168 de Mme Michèle Victory.
Suivant l'avis défavorable de la rapporteure, la Commission rejette l'amendement.
Article 8 : Gage financier
La Commission est saisie de l'amendement CL296 du Gouvernement tendant à supprimer l'article 8.
La Commission adopte l'amendement.
En conséquence, l'article 8 est supprimé.
Après l'article 8
La Commission est saisie de l'amendement CL124 de la rapporteure.
Cet amendement prévoit une entrée en vigueur immédiate des dispositions relatives à l'obligation de retrait en vingt-quatre heures des contenus manifestement haineux. Le reste du texte entrera en vigueur au 1er janvier 2020, et au 1er janvier 2021 s'agissant des mesures portant sur la personnalité qualifiée chargée de contrôler l'application des dispositions relatives au blocage des contenus terroristes et pédopornographiques sur demande de l'autorité administrative.
La Commission adopte l'amendement.
En conséquence, l'article 9 est ainsi rédigé.
Titre
La Commission est saisie de l'amendement CL68 de Mme Michèle Victory.
Cet amendement n'est pas anodin. Le titre proposé n'est pas conforme, selon nous, à l'objectif réel de ce texte. En effet, on ne peut pas lutter contre la haine, qui est un sentiment – si méprisable soit-il – et non une notion juridique. Si je ressentais de la haine pour certains d'entre vous dans cette salle – ce qui n'est évidemment pas le cas –, rien ne vous permettrait de me condamner. En revanche, si j'exprime publiquement cette haine sur internet, l'acte pourrait être condamné.
Il faut donc corriger le titre, pour ne pas laisser penser que nous légiférons sur un sujet relevant de la conscience. Ce serait extrêmement dangereux. Cet amendement vise donc à substituer au mot « haine », les mots « diffusion de contenus haineux ».
Il est difficile de changer le titre de sa proposition de loi… J'entends vos arguments mais je ne peux pas prendre une décision tout de suite. Je vais y réfléchir et je vous propose, en attendant, de retirer votre amendement.
Je préfère le maintenir, et j'invite chacun à réfléchir à ce sujet. Ne donnons pas le sentiment que l'Assemblée nationale s'ingère dans ce qui relève de la pensée intime. Nous souhaitons tous combattre la haine, mais ce n'est pas une notion juridique. Penser est une chose, agir en est une autre. Condamnons les mauvais actes.
La Commission rejette l'amendement.
Puis elle adopte l'ensemble de la proposition de loi ainsi modifiée.
La réunion s'achève à 19 heures 20.
Membres présents ou excusés
Présents. - Mme Caroline Abadie, M. Jean-Félix Acquaviva, M. Pieyre-Alexandre Anglade, Mme Laetitia Avia, M. Erwan Balanant, Mme Yaël Braun-Pivet, M. Xavier Breton, M. Éric Ciotti, Mme Coralie Dubost, Mme Nicole Dubré-Chirat, M. Jean-François Eliaou, M. Christophe Euzet, Mme Isabelle Florennes, M. Philippe Gosselin, M. Guillaume Gouffier-Cha, M. Sacha Houlié, M. Mansour Kamardine, Mme Alexandra Louis, M. Fabien Matras, M. Jean-Michel Mis, M. Pierre Morel-À-L'Huissier, Mme Naïma Moutchou, Mme Danièle Obono, M. Didier Paris, Mme George Pau-Langevin, M. Jean-Pierre Pont, M. Rémy Rebeyrotte, M. Robin Reda, M. Thomas Rudigoz, M. Hervé Saulignac, M. Jean Terlier, Mme Alice Thourot, Mme Cécile Untermaier, M. Guillaume Vuilletet
Excusés. - Mme Huguette Bello, M. Philippe Dunoyer, Mme Paula Forteza, Mme Marie Guévenoux, Mme Maina Sage
Assistaient également à la réunion. - Mme Géraldine Bannier, M. Thibault Bazin, M. Éric Bothorel, M. Jean-François Cesarini, Mme Fabienne Colboc, M. Alexis Corbière, M. Nicolas Démoulin, Mme Albane Gaillot, M. Raphaël Gérard, Mme Brigitte Kuster, Mme Laure de La Raudière, M. Jacques Marilossian, M. François Pupponi, M. Frédéric Reiss, M. Buon Tan