15 interventions trouvées.
...'est la question centrale : avec quelle impartialité le CSA pourra-t-il agir, notamment dans les trois mois qui précèdent une élection. Ce ne sera alors pas forcément l'information vraie ou fausse qui risquera de troubler l'ordre public ou de porter atteinte à la sincérité des scrutins, mais bien les décisions elles-mêmes du CSA ! Confier au CSA la responsabilité de vérifier si les opérateurs de plateforme en ligne appliquent bien les dispositions de cette proposition de loi, c'est continuer d'accroître ses pouvoirs alors qu'il en a déjà tellement – et pour quelle efficacité ? N'est-ce pas un risque supplémentaire pour la liberté d'expression ? C'est la raison pour laquelle il faut supprimer cet article.
Lors de la discussion sur l'article 9 en commission, j'avais défendu un amendement visant à rendre systématique l'envoi par le CSA de recommandations aux plateformes pour lutter contre la diffusion de fausses informations. Sur votre proposition, monsieur le rapporteur, j'ai retravaillé mon amendement pour éviter des recommandations non justifiées : l'envoi de recommandations par le CSA serait donc fait en cas de nécessité.
...uisque vous tenez à les défendre – ou je ne sais quel acteur de la vie publique peut lui aussi se voir attaqué. Nous souhaitons, par cet amendement, lutter contre la publication en ligne d'informations litigieuses en renforçant les droits des citoyens qui, eux aussi, pourraient demander leur retrait. C'est le sens de toutes les propositions que nous faisons, comme la possibilité de s'adresser aux plateformes pour empêcher que des informations inacceptables, totalement mensongères, soient diffusées contre tel ou tel de nos concitoyens. Cette procédure plus protectrice des citoyens permettrait donc de garantir les droits de tous, et pas seulement de ceux qui s'engagent en politique.
Monsieur Corbière, vous visez en fait les cas de diffamation, qui ne sont pas le coeur du texte, même si la manipulation d'information peut parfois en prendre l'apparence. Je suis d'accord avec vous sur le fait que, souvent, les plateformes ne vont pas assez vite dans le retrait de leurs contenus racistes ou haineux : elles ont d'énormes progrès à faire dans ce domaine, notamment en ce qui concerne l'intelligence artificielle ou la formation des modérateurs. Mais ce débat n'a pas grand-chose à voir avec celui qui nous occupe aujourd'hui sur la manipulation d'information. L'amendement a pour objet des cas de diffamation : avis défav...
...ame la ministre de la culture, monsieur le président et rapporteur de la commission des affaires culturelles et de l'éducation, madame la rapporteure pour avis de la commission des lois, mes chers collègues, cet article est particulièrement important, car il y va – entre autres – de la préservation du pluralisme. Il était essentiel d'assumer, dans un texte de loi, le fait que l'autorégulation des plateformes ne suffit pas. L'instauration d'un devoir de coopération et de transparence pour les hébergeurs et les fournisseurs d'accès à internet – FAI – est importante au regard des enjeux de régulation auxquels nous sommes confrontés. L'article 9 permet de faciliter le signalement des contenus par les utilisateurs. Il impose surtout aux hébergeurs et aux FAI de relayer promptement auprès du grand publi...
...e droit est insuffisant pour inciter les GAFA – Google, Amazon, Facebook et Apple – , les hébergeurs et les fournisseurs d'accès à internet à prévenir la diffusion des fausses informations. L'article 9 contribuera à lutter contre ces dérives d'internet dont les effets directs sont potentiellement très graves pour notre société. Réécrit après l'avis du Conseil d'État, l'article vise à inviter les plateformes numériques à la coopération et à la transparence plus qu'à les placer dans le viseur du juge. Le dispositif proposé s'appuie sur la loi de 1986 relative à la liberté de communication et repose sur la régulation du Conseil supérieur de l'audiovisuel. Celui-ci examinera chaque année le bilan des plateformes en matière de prévention des fausses informations, tant en ce qui concerne les moyens fina...
La responsabilisation des plateformes procède d'une intention louable. En effet, il n'est pas possible d'agir en matière de fausses informations sans une collaboration avec ces dernières, mais vous allez faire peser sur elles une très lourde responsabilité. La mise en oeuvre de cette disposition me paraît pour le moins aléatoire. Si on peut concevoir qu'il est facile de dénoncer ou d'identifier une information à caractère raciste, ...
Cet article est, avec l'article 1er, la principale innovation du texte. Les mesures relatives aux plateformes sont d'une importance majeure eu égard à l'objet du texte. L'amendement de Mme Ménard témoigne d'un désaccord de fond. Avis défavorable.
...aujourd'hui, génèrent énormément de revenus publicitaires. C'est précisément pour éviter de tomber dans la censure que nous avons réécrit l'article en commission. La décision de retirer un lien vers une fausse information appartient au juge – c'est l'objet du titre Ier de la proposition de loi, comportant des dispositions modifiant le code électoral. Nous voulons réunir les différents acteurs – plateformes, FAI, publicitaires, journalistes impliqués dans la certification comme ceux de Reporters sans frontières, auxquels Mme la ministre faisait référence – autour d'une table car il n'est pas admissible que les plateformes dont la ligne éditoriale est déterminée en vue d'attirer de la publicité et donc de produire de la richesse n'obéissent à aucune règle en ce qui concerne les fausses informations....
...j'ai l'impression que nous avançons, puisque l'algorithme de Parcoursup a été rendu public. Cela signifie que l'administration s'applique à elle-même les principes qu'elle entend appliquer à des acteurs privés. Cela répond à un souci de cohérence et je pense que c'est en effet une bonne chose. Sur le second point, c'est précisément parce que nous voulons éviter la censure et l'autorégulation des plateformes, c'est-à-dire éviter qu'elles appliquent non pas notre droit mais leurs principes, que nous souhaitons mettre en place des garde-fous. C'est ainsi une autorité indépendante qui pourra juger d'une éventuelle inadéquation ou irrégularité. Si nous n'établissons pas ces principes, alors ce sont les règles internes des différentes plateformes qui prévaudront, ce que nous voulons tous, à mon avis, évi...
Il vise à supprimer la disposition contraignant les opérateurs de plateforme à « informer promptement les autorités publiques compétentes de toute activité de diffusion de [… ] fausses informations ». À chacun de définir ce que signifie « promptement »…
Je comprends le sens de votre amendement, d'autant plus que les plateformes ne font pas toujours l'effort – c'est vrai – de répondre aux demandes de retrait des contenus illicites ou qu'elles y répondent parfois de manière insatisfaisante. Toutefois, votre amendement aurait pour effet d'inciter les plateformes à une forme de censure préventive. Or c'est précisément ce que nous avons souhaité éviter lorsque nous avons réécrit l'article 9. Par ailleurs, nous sommes sorti...
...l peut aussi y avoir des erreurs ou tout simplement un contenu qui ne me plaît pas et que je souhaite donc voir retirer, par exemple une vidéo me montrant en train de faire le clown lorsque j'avais sept ans. Il faut véritablement se poser la question : à quel moment bascule-t-on dans le traitement subjectif ? Par ailleurs, monsieur le rapporteur, vous avez estimé que ce dispositif obligerait les plateformes à pratiquer une forme de « censure préventive ». J'aimerais savoir ce que vous entendez par là. Cela signifie-t-il que l'on risque d'assécher le flux d'informations en ne gardant que celles qui sont labellisées ? Tant qu'elle n'a pas reçu d'alerte de la part d'un citoyen, une plateforme ne peut pas savoir à l'avance si un contenu est susceptible de causer un dommage. Comment pourrait-elle, dès l...
...dispositif me semble plutôt clair. Je souhaite que les choses se fassent en bon ordre, qu'elles soient organisées, non pas que l'on dise : « Nous améliorons le signalement, et ensuite, on verra. » Nous allons tomber dans les écueils actuels que vous avez vous-même dénoncés dans votre argumentaire, monsieur le rapporteur : vous avez reconnu qu'il y avait une procédure de signalement, mais que les plateformes n'en faisaient pas grand-chose et qu'il n'existait pas de moyens de dialoguer ou de contester. S'agissant de la vidéo montrant M. Aubert faisant le clown lorsqu'il avait sept ans, je ne suis pas sûr qu'il faille remonter aussi loin…
Un simple éclaircissement, mes chers collègues : si une plateforme encourt une sanction en cas de non-retrait d'un contenu litigieux, que va-t-elle faire ? Elle va le retirer automatiquement. C'est ce que je désignais par le terme d'« autocensure ».