73 interventions trouvées.
Cet amendement tend à supprimer l'alinéa 4, qui confère au CSA – Conseil supérieur de l'audiovisuel – des pouvoirs exorbitants, lesquels reviennent normalement et naturellement à la justice. Or le CSA, qui devient aujourd'hui le véritable réceptacle des signalements – autre nom de la délation moderne – , se transforme en arbitre de ce qu'il convient ou non de dire, ce qui est l'exact contraire du principe de liberté d'expression dont les limites ne peuvent ê...
Selon l'alinéa 4, le CSA émet des recommandations portant sur les moyens techniques que mobiliseront les plateformes. Cette mission n'a jamais figuré parmi les prérogatives de la justice et entre bien dans la fonction de régulateur : le CSA sera donc pleinement dans son rôle. L'avis est donc défavorable.
...u et ils en informent la personne l'ayant notifié. Dans les deux cas, ces acteurs privés jugent du caractère manifestement illégal – ou non – des contenus. J'affirme pour ma part que, dans certains cas, ils pourront avoir des doutes. C'est ce que j'appelle le contenu gris. Mon amendement vise à prévoir un troisième cas de figure selon lequel, en cas de doute, les acteurs privés peuvent saisir le CSA – qui pourra lui-même faire appel à des experts – afin de recueillir son avis pour décider de retirer ou non un contenu. Il conviendra naturellement de sanctionner toute saisine abusive du CSA, mais cette mesure me paraît être de nature à clarifier la rédaction du texte et à régler une fois pour toutes la question des contenus gris.
Les deux amendements sont de nature différente. Vous reprenez, madame de La Raudière, un débat que nous avons eu hier. Le rôle du CSA sera non pas d'examiner et d'apprécier des contenus individuels au cas par cas, mais de se préoccuper de l'organisation et des moyens mis en oeuvre par les plateformes. Ce point a été clarifié dans le texte. Si la plateforme a un doute sur un contenu – nous ne nions pas que le doute puisse exister – , l'acteur compétent sera non pas le CSA, mais le juge. Or, je vous l'ai indiqué hier, la loi per...
Je reviens à mon tour sur les contenus gris. Il est exact que le CSA ne souhaite pas – il l'a dit lui-même – avoir à connaître des cas individuels, à la fois parce qu'il n'est pas armé juridiquement à cette fin et parce qu'il n'a pas les moyens de statuer sur ces cas. Dès lors, vous dites que cette tâche reviendra aux plateformes, …
… ce qui impliquerait qu'elles soient capables de faire ce que le CSA ne veut pas faire. Vous ajoutez, pour relativiser, que les plateformes peuvent saisir le juge si elles ont un doute. Or, par essence, les signalements de contenus gris seront très nombreux. Une plateforme ne pourra donc pas saisir le juge à propos de tous les contenus gris ou douteux qui lui seront signalés et obtenir une réponse en temps et en heure. Je le répète, le dispositif n'est pas opérat...
Il vise à préciser que l'information claire que nous demandons aux plateformes de diffuser sera préalablement validée par le CSA. De manière analogue, nous avions décidé que les notices d'information fournies aux consommateurs par les établissements bancaires et les organismes d'assurance seraient préalablement validées par l'autorité administrative compétente. Nous nous assurerions ainsi que les plateformes n'utiliseront pas un langage incompréhensible et que les utilisateurs seront bien informés. Cela correspond a prior...
En ce qui concerne les obligations de moyens fixées par le texte, le CSA interviendra en amont et en aval. En vertu de l'article 2, que nous venons d'adopter, il émettra des recommandations afin d'accompagner les plateformes en la matière. Ensuite, il exercera un pouvoir de contrôle sur l'ensemble du dispositif, pouvoir qui fait l'objet de l'article 4. Mon avis est donc défavorable.
Toute la question est celle de la temporalité : vous évoquez le pouvoir de recommandation a priori du CSA, mais il n'aura connaissance d'informations que dans le cadre de son contrôle a posteriori. Or l'idée est d'éviter le surgissement de cas particuliers, par l'établissement d'une information préalable. Il s'agit de sécuriser l'usager des différentes plateformes, en faisant en sorte que le CSA intervienne en amont, plutôt que simplement en aval, de manière curative.
Avis défavorable. Ces notifications contiennent énormément d'informations à caractère personnel qui n'ont pas à être rendues publiques. Ce que la proposition de loi organise, c'est une transmission d'informations aux autorités publiques et au CSA. Les chercheurs sont représentés au sein de l'Observatoire de la haine en ligne. De ce fait, ils auront accès à un certain nombre d'informations, sans que ce soit au détriment de la protection des données des utilisateurs et des victimes qui notifient ces contenus.
Il s'agit là encore, et cela ne vous surprendra pas, d'un amendement de suppression. L'article 4 définit un peu plus précisément le rôle du CSA dans le contrôle des propos haineux sur internet. Cette instance verra ses missions renforcées et sera dotée de pouvoirs exorbitants. Alors que la proposition de loi devrait veiller à ce que le CSA ne pas dépasse les limites de sa compétence, elle va au contraire lui permettre d'étendre ses missions au-delà de la radio et de la télévision, puisqu'il contrôlera demain les plateformes internet. Po...
Les pouvoirs exorbitants que cet article donne au CSA font de lui un véritable censeur de la morale, alors que l'impartialité de cette institution est souvent remise en question. Quand des Français dérapent, tiennent des propos haineux ou illégaux, c'est à la justice de les sanctionner. Qu'il y ait un intermédiaire entre la justice et les citoyens n'a pas beaucoup de sens dans une démocratie.
Cet amendement vise à préciser que le CSA devra, en exerçant sa mission de régulateur, tenir compte, dans un souci de proportionnalité, de la pluralité des modèles des opérateurs et de l'adéquation de leurs moyens aux nécessités de la lutte contre la haine en ligne.
Vous transférez au CSA un pouvoir quasi judiciaire, alors que la moitié des membres de cette instance sont nommés par le président de l'Assemblée nationale, l'autre par celui du Sénat, et que son président est nommé par le Président de la République. En matière d'absolue dépendance du pouvoir politique, je crois qu'on ne fait pas mieux ! Et c'est à elle que nous allons confier ce qu'il y a de plus précieux, à savoir la...
Comme je viens de l'expliquer, le CSA ne s'occupe pas des contenus individuels : en tant que régulateur, il s'intéresse à la modération assurée par les plateformes et au bon dimensionnement de leurs moyens en la matière. À ce titre, il examine le nombre de modérateurs en place dans chaque plateforme. Il faut être conscient d'une réalité : bien que je travaille depuis deux ans à cette proposition de loi, je suis incapable de savoir c...
Ni le Conseil d'État ni la Commission européenne n'ont émis de réserve sur le quantum de la sanction fixé par la proposition de loi. En outre, les 4 % du chiffre d'affaires correspondent à un plafond, sachant que la sanction doit être proportionnée à la gravité de l'atteinte et à l'opérateur qui fait l'objet d'une procédure ou d'une mise demeure par le CSA. La proportionnalité est donc pleinement prévue par le texte. Avis défavorable.
Cet amendement a été adopté en première lecture, puis retiré par le Sénat. Je le présente donc en deuxième lecture, avec l'espoir que notre assemblée réitérera son vote. Il vise à rendre obligatoire la communication des sanctions prises par le CSA à l'encontre des plateformes. Une telle mesure ne pourra qu'inciter les opérateurs, soucieux de leur image, à adopter de bonnes pratiques.
Nous avons effectivement voté cet amendement en première lecture, mais le Sénat l'a rejeté en avançant des arguments pleinement justifiés, auxquels je suis obligée d'adhérer. La publicité étant en soi une sanction, elle ne peut pas être automatique. Elle doit être proportionnée. Aussi doit-elle être décidée par le CSA. La publicité est l'une des sanctions que peut prononcer le CSA, et nous l'encourageons fortement à le faire. Avis défavorable.
...qu'il s'agissait d'une obligation générale de surveillance. Aussi proposons-nous que les plateformes améliorent leur coopération et empêchent la rediffusion massive de contenus – en particulier vidéos ou images – identiques ou spécifiquement équivalents à ceux retirés en application de l'article 6-2, c'est-à-dire des contenus manifestement illicites. Nous souhaitons que cela soit encouragé par le CSA, sans qu'il s'agisse pour autant d'une obligation de moyens, comme nous l'avions décidé en première lecture.
...x ? La Commission européenne dit que l'État ne peut pas exiger des plateformes une surveillance généralisée. Or la rédaction que nous avions adoptée en première lecture imposait à celles-ci une obligation de moyens : c'est pourquoi elle a été modifiée. La nouvelle rédaction que vous proposez n'impose aucune obligation, ni de moyens ni de résultat. Il s'agit d'un encouragement fort adressé par le CSA aux acteurs qu'il régule en vue de trouver des moyens pour coopérer et des solutions effectives dans la lutte contre la rediffusion massive de tels contenus. Le message est passé aux plateformes : il faut absolument trouver des solutions. Avis favorable.