69 interventions trouvées.
...mpose aux opérateurs des plateformes en ligne à fort trafic, de retirer les contenus litigieux et de les rendre inaccessibles dans un délai de vingt-quatre heures. Malgré les précautions prises et les références à la liberté de la presse ou à des articles du code pénal, nous pensons que ces opérateurs auront du mal à déterminer aussi rapidement et surtout aussi sûrement le caractère manifestement illicite d'un contenu. Nous craignons de ce fait un risque de sur-censure. Il est en effet assez probable que, dans ce délai très court, un principe de précaution ou de prévention conduira à une censure excessive, en l'absence de l'intervention d'un juge qui dise le droit. Le risque est d'aller au-delà de la censure de discours haineux et de censurer aussi des critiques à caractère idéologique qui ont to...
...e elle. Or si nous sacrifions l'État de droit dans ce combat, c'est la haine qui aura gagné. Les contenus mentionnés dans l'article 1er sont pénalement répréhensibles. Qu'ils soient donc condamnés par la justice dans le cadre d'une procédure équitable. Il est impératif de conforter la place du juge judiciaire, gardien des libertés fondamentales, à tous les niveaux de la lutte contre les contenus illicites et de renforcer les moyens d'action de la justice. L'article 1er n'apporte pas la bonne réponse au problème que nous cherchons à résoudre. Les opérateurs de plateformes en ligne, qui sont des sociétés privées, n'ont pas à se substituer au juge en matière de répression des crimes et délits. La justice ne peut être rendue que par un juge, dont les décisions s'inscrivent dans une procédure précise...
...lique : nous devons protéger nos concitoyens des déferlantes quotidiennes de haine sur les réseaux sociaux. Certains orateurs ont estimé que la proposition de loi conduisait à une privatisation de la liberté d'expression. Soit. Mais imaginons que nous supprimions l'article 1er et que nous en restions au droit en vigueur : les plateformes auraient toujours la possibilité de supprimer les contenus illicites sans qu'on sache ni quand ni comment et sans qu'aucune sanction leur soit applicable. En somme, si l'article était supprimé, on en reviendrait au statu quo et les plateformes pourraient continuer d'agir comme bon leur semblerait. Vous soutenez que nous allons déléguer l'autorisation de censure aux plateformes mais nous n'allons rien déléguer puisque la loi de 2004 pour la confiance dans l'économ...
En revanche, si les plateformes retirent des contenus de manière excessive, ce n'est pas un délit qui s'applique, mais une sanction du Conseil supérieur de l'audiovisuel, le CSA, qui peut représenter jusqu'à 4 % du chiffre d'affaires mondial de la plateforme. La sanction prévue en cas de sur-censure est par conséquent bien plus élevée que la sanction prévue en cas de non-retrait de contenus illicites. Et elle est suffisamment dissuasive pour que les plateformes évitent de s'adonner à ce qu'on pourrait considérer comme une facilité ; 4 % du chiffre d'affaires mondial, c'est une épée de Damoclès suffisamment menaçante pour s'assurer que chacun fera son travail. L'article 1er tel que nous vous le proposons est équilibré, il répond, je vous le garantis, à toutes les questions qui ont été soulev...
...le mot « rouge » des contenus si elles le souhaitent et personne ne pourra rien leur dire. En revanche, le texte leur impose un devoir, comme notre collègue George Pau-Langevin l'a très bien rappelé, celui de faire respecter sur internet la loi de 1881. Cela ne signifie pas que les auteurs ne seront plus responsables de leurs propos, ils le demeureront, mais que si ces derniers sont manifestement illicites au regard de la future loi, les plateformes devront les retirer. C'est bien la raison pour laquelle je n'arrive pas à comprendre pourquoi on parle de contenus gris : certains criant déjà au scandale quand on évoque des contenus manifestement illicites, imaginons ce qu'il en serait si l'on touchait ce soir aux contenus gris !
… et il est question de « message manifestement illicite » quand il n'y a aucun doute. Et cela, le juge pourra…
Dernier point : les contenus gris. J'assume pleinement le fait de ne m'intéresser ici qu'à un sujet : les contenus manifestement illicites. On sait bien que ce texte ne réglera pas tout le problème, mais si l'on arrive déjà à supprimer ces contenus, internet sera un peu plus sain. Je viens de faire un exercice très simple sur Twitter que chacun de vous peut faire aussi. J'ai tapé les mots « sale noir » dans la barre de recherche. Qu'ai-je obtenu ? « Sale nègre, tu aimes les beurettes, hein ? Tu sais, les négresses sont moches. » Dé...
...ple que vous venez de citer : quelqu'un, nous dites-vous, aurait publié un commentaire déclarant en substance – je n'ai plus les termes exacts en tête – que les Noirs sont moches. Chacun convient que ce commentaire est complètement stupide. Toutefois, si la justice et, a fortiori, la Cour européenne des droits de l'homme – la CEDH – s'en saisissent, je vous fiche mon billet qu'il ne sera pas jugé illicite en raison de son caractère général. Encore une fois, c'est un commentaire complètement débile, mais il ne s'agit pas d'une attaque ad hominem.
Non, ce n'est pas une attaque contre une personne et la CEDH ne le jugera pas illicite. Vous le voyez, il existe donc d'emblée une différence d'interprétation. Cela vous fait peut-être rire…
...ce sont souvent une même vidéo partagée des millions de fois. Ce n'est pas parce que l'on désactive automatiquement sa diffusion – ce qui au demeurant ne constitue pas une double modération – qu'on porte atteinte à la liberté d'expression. En lisant votre amendement, chère collègue Brocard, j'imagine la situation suivante : je poste un contenu sur internet, et, si quelqu'un le juge manifestement illicite et le signale, la plateforme bloque automatiquement sa diffusion. On peut toujours me lire, ma liberté d'expression est donc intacte ; en revanche, on ne peut plus partager mes propos, ce qui permet d'éviter l'incendie.
J'avais oublié le troisième point de mon argumentation… Dans le cadre de l'article 4, nous prévoyons différentes mesures pour limiter la viralité. C'est une régulation administrative : le CSA encourage notamment les plateformes à mettre en oeuvre « des dispositifs techniques proportionnés facilitant, dans l'attente du traitement de la notification d'un contenu signalé comme illicite, la désactivation ou la limitation temporaire des fonctionnalités qui permettent de multiplier ou d'accélérer l'exposition du public à ce contenu, et notamment les possibilités de partage, d'interaction ou d'envoi de messages liés à ce contenu ». Il n'y a donc pas d'automaticité, mais un travail au plus près des besoins, comme il se doit pour une obligation de moyens. Non, nous ne mettons pas la...
Ce problème tient à l'interprétation du caractère manifestement illicite. Vous considérez que celui-ci préserve de toute zone grise. Non : le contenu doit être manifestement illicite sur le plan juridique. Pour certains, l'appréciation relève du bon sens – vous avez vous-même donné un exemple tout à l'heure ; mais ce n'est pas parce que l'émotion ou le bon sens amène à penser qu'un contenu est manifestement illicite qu'il l'est. La garde des sceaux l'avait dit, ce qu...
Présentez une proposition de loi, monsieur Le Fur ! Votre amendement propose d'introduire dans l'alinéa 2 la diffamation envers les particuliers. D'une part, ce texte concerne les contenus manifestement illicites – Mme la rapporteure l'a bien expliqué. D'autre part, je ne vois pas en quoi votre suggestion résoudra le problème des agriculteurs qui se font insulter ou attaquer en raison de leur profession. Ce n'est pas de la diffamation de les traiter d'agriculteurs et de leur reprocher d'utiliser des pesticides ! Bref, je ne vois pas comment votre amendement permettra de protéger les agriculteurs.
Je souscris pleinement aux objectifs visés par cette proposition de loi. Je vous rejoins sur la nécessité d'obliger les plateformes à retirer les contenus illicites dans un délai de vingt-quatre heures. Pour autant, je m'interroge sur le périmètre retenu pour délimiter le champ des infractions visées par cette obligation de retrait. Il paraît très compliqué de qualifier rapidement des contenues relevant du proxénétisme ou de la traite des êtres humains. Pour pouvoir le faire, il faut prouver non seulement la réalité de la prostitution, mais aussi que celle-...
Il s'agit d'un amendement d'appel visant à inclure dans le champ d'application de l'article les infractions de harcèlement moral, prévues à l'article 222-33-2 du code pénal, comme nous venons de le faire s'agissant du harcèlement sexuel. J'ai bien conscience que dans le cadre du texte et de la caractérisation de la haine et du manifestement haineux et illicite, nous nous trouvons ici sur une frontière délicate, mais j'évoque ce débat afin de répondre à la question sensible des jeunes et des mineurs victimes de harcèlement moral sur les réseaux sociaux. Nous faisons face à des situations extrêmement difficiles, avec des jeunes confrontés sans répit au harcèlement scolaire. Il convient d'avancer afin de trouver une solution et, pour ainsi dire, assainir ...
Il est défavorable. Pour être caractérisée, l'incitation au suicide doit avoir eu pour conséquence une tentative de suicide ou un passage à l'acte. Il ne s'agit malheureusement pas d'un acte manifestement illicite.
...puni de la même peine que le délit de refus de retrait. La situation est en effet assez paradoxale : la proposition de loi vise à ce que les plateformes ne respectant pas l'obligation de retirer des contenus manifestement haineux soient sanctionnées ; elle tend, en outre, à ce que les usagers soient pénalement sanctionnés en cas de notification abusive ou malveillante de contenus présentés comme illicites ; en revanche, aucune sanction n'est prévue en cas de retrait abusif d'un contenu. Le dispositif nous paraît donc tout à fait déséquilibré et de nature à favoriser la surcensure.
...is, que plusieurs d'entre nous ont évoqué. Les auteurs de la proposition de loi considèrent que tous les contenus litigieux peuvent être traités en vingt-quatre heures. Or, dans les faits, un certain nombre de contenus ne peuvent faire l'objet d'une qualification aussi rapidement. Aux termes de cet amendement, les plateformes pourraient saisir le juge lorsqu'elles ont un doute quant au caractère illicite d'un contenu. Dans ce cas, le délai de vingt-quatre heures serait suspendu. Bien évidemment, il courrait de nouveau dès que le juge aurait rendu sa décision. L'amendement prévoit en outre que toute saisine abusive du juge judiciaire serait prise en compte par le Conseil supérieur de l'audiovisuel dans le cadre de son pouvoir de sanction. Le dispositif me paraît donc équilibré.
Ils sont complémentaires. L'amendement no 97 vise à prendre en considération les associations : elles sont également susceptibles de signaler un contenu comme étant illicite, pour en obtenir le retrait ou en faire cesser la diffusion en sachant l'information inexacte. L'association encourrait alors les mêmes sanctions qu'une personne physique. L'amendement no 98 tend à supprimer la peine d'emprisonnement pour les personnes ayant demandé un retrait à la faveur d'informations inexactes ; l'amende de 15 000 euros est maintenue.
Nous reprenons l'examen de ce texte dont, depuis le début, on nous dit qu'il ne concerne que les contenus manifestement illicites. Or, autant l'alinéa 3 vise bien « tout contenu contrevenant manifestement aux cinquième, septième et huitième alinéas de l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse » ainsi qu'à certains articles du code pénal, autant l'alinéa 4 ne vise pas les contenus manifestement illicites. Je propose donc, au travers de cet amendement, de préciser que ce sont les contenus manifes...