Interventions sur "manifestement"

89 interventions trouvées.

Photo issue du site de l'Assemblée nationale ou de WikipediaEmmanuelle Ménard :

... à l'amendement no 145. C'est justement dans un souci d'équité que je souhaite, à l'alinéa 3, substituer l'expression « raisonnable au vu du propos incriminé » aux mots « vingt-quatre heures ». En effet, les plateformes ne sont pas des professionnels de la justice et, en fonction du propos signalé, la décision de retrait peut être plus ou moins aisée à prendre. Le délai de vingt-quatre heures est manifestement trop court pour permettre à l'opérateur de se faire conseiller juridiquement lorsque le contenu fait partie de cette zone grise. Si ce délai était maintenu, il inciterait probablement les plateformes à ne prendre aucun risque et à supprimer les contenus par mesure de sécurité, ce qui représente un risque évident de surcensure.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure de la commission des lois constitutionnelles, de la législation et de l'administration générale de la République :

J'ai eu l'occasion de vous le dire dans un autre cadre, ma chère collègue : je trouve cet amendement très dangereux – je pèse mes mots. S'il était adopté, n'importe quel signalement empêcherait qu'un contenu soit retweeté, diffusé, partagé. Je dis bien n'importe quel signalement ! Pourtant, ce n'est pas parce qu'un contenu est signalé qu'il est en soi manifestement illicite. N'importe quel tweet, n'importe quel message, qu'il ait ou non une connotation haineuse, qu'il porte ou non sur des éléments objectifs, pourrait être anesthésié par une personne qui se sentirait dérangée ou qui voudrait simplement nuire à son auteur. Elle aurait alors la possibilité d'empêcher la diffusion de ce contenu. Les réseaux sociaux constituent un moyen de communication qui re...

Photo issue du site de l'Assemblée nationale ou de WikipediaPhilippe Dunoyer :

... à cet amendement. Je crois comprendre que la prudence dont font preuve la rapporteure et la ministre vise un usage abusif des signalements par des lanceurs d'alerte malveillants. Mais si cet amendement était adopté, l'opérateur en ligne se montrerait proactif pour traiter dans un délai maximum de vingt-quatre heures, voire plus rapidement, ces signalements visant des contenus qui pourraient être manifestement illicites – ce que la loi lui demande. Comme un de nos collègues l'a rappelé, en vingt-quatre heures, voire en quelques heures, un contenu peut être partagé des milliers de fois. Cet amendement renforce la proposition de loi en matière de lutte contre des contenus qui sont a priori manifestement haineux : la nouvelle contrainte qu'il fait peser sur les opérateurs est donc légitime. Des dérives s...

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

...ale du Conseil d'État, vient soutenir les objectifs de la proposition de loi, consolider ses dispositifs et ainsi veiller au succès du combat dans lequel nous nous engageons. J'ai déposé plusieurs amendements visant à mettre en oeuvre les recommandations du Conseil d'État. Le texte que nous vous proposons repose sur une disposition clef, qui est son coeur : une obligation de retrait des contenus manifestement illicites en vingt-quatre heures. Ses poumons sont des obligations de moyens, qui viennent assurer la vitalité et l'efficacité de cette obligation de retrait. Ainsi, à l'article 1er, nous proposons d'ajouter un article à la LCEN pour créer un nouveau délit de non-retrait de contenus manifestement illicites en vingt-quatre heures, applicable aux grandes plateformes et moteurs de recherche, comme ...

Photo issue du site de l'Assemblée nationale ou de WikipediaCaroline Abadie :

...eux ans après l'Allemagne, mais sans faire de copier-coller de la loi Netzwerkdurchsetzungsgesetz, dite « NetzDG », nous pouvons nous appuyer sur ce rapport et sur l'expérience outre-Rhin pour proposer ce dispositif simple, lisible et que nous voulons efficace. Le coeur du dispositif – vous le disiez, madame la rapporteure –, c'est l'obligation de retrait sous vingt-quatre heures de tout contenu manifestement illicite et signalé. Cela veut dire que le contenu gris, celui dont on ne sait pas au premier coup d'oeil s'il est illicite, n'est pas visé. Nous visons les contenus manifestement illicites, les propos incitant à la haine ou à l'injure discriminatoire. C'est le coeur du dispositif, car c'est cette obligation de retrait qui pèse sur les grands réseaux sociaux qui va les responsabiliser enfin. Et s...

Photo issue du site de l'Assemblée nationale ou de WikipediaIsabelle Florennes :

...s visées ? Des plateformes de moindre importance accueillent et permettent elles aussi la diffusion de contenus haineux. Ne pouvait-on pas imaginer de viser l'ensemble de ces plateformes ? Par ailleurs, l'article 1er peut soulever plusieurs questions quant à la définition précise des contenus illicites. Quid de la latitude laissée aux opérateurs dans leur appréciation pour déterminer le caractère manifestement illicite ou non des contenus ? Ne devrait-on pas, à terme, réintroduire le juge judiciaire dans ce processus afin de protéger les utilisateurs ? Enfin, du point de vue de la liberté d'expression, comment gérer les éventuelles censures abusives de la part des opérateurs ? La pression des sanctions et du name and shame va pousser les plateformes à systématiser la censure. C'est aussi toute la quest...

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

...Conseil d'État et des évolutions prévisibles du texte, afin que chacun puisse s'y préparer. Je pense avoir fait le maximum possible en la matière. Que l'on appelle cela de l'impréparation, je ne peux que m'en désoler. Sur le fond, il est important de rappeler un principe de base contenu dans l'article 6 de la LCEN : les plateformes ont d'ores et déjà une obligation de prompt retrait des contenus manifestement illicites. Nous ne créons pas cette obligation mais nous indiquons dans quel délai ce retrait doit être opéré. Le caractère manifestement illicite résulte d'une réserve d'interprétation du Conseil constitutionnel. En combinant ces deux éléments, nous prévoyons que les plateformes devront retirer les contenus manifestement illicites de manière prompte, c'est-à-dire dans un délai de vingt-quatre he...

Photo issue du site de l'Assemblée nationale ou de WikipediaEmmanuelle Ménard :

...'abord, en prononçant une sanction pécuniaire basée sur le chiffre d'affaires de la plateforme fautive, que faites-vous du respect du principe de proportionnalité entre la sanction et l'infraction ? Ensuite, l'indexation de l'amende sur le chiffre d'affaires pose problème puisqu'elle ne peut être justifiée que par un lien entre l'infraction et le chiffre d'affaires qui en est retiré, ce qui n'est manifestement pas le cas ici. Le Conseil constitutionnel a déjà eu l'occasion de censurer de nombreux dispositifs de sanctions financières dont le plafond était calculé en pourcentage du chiffre d'affaires, dès lors qu'il n'y avait pas de lien rationnel entre le comportement prohibé et les modalités de calcul du plafond de l'amende envisagée. Je fais notamment référence à une décision du 4 décembre 2013. Le C...

Photo issue du site de l'Assemblée nationale ou de WikipediaGeorge Pau-Langevin :

...anctions. Nous sommes très favorables à l'idée d'accroître l'efficacité de la lutte contre ce déferlement de haine. Nous pensons d'ailleurs qu'il était urgent de se saisir du problème et d'essayer d'avancer. Le texte n'est pas abouti et il est en train de se peaufiner. C'est une bonne idée de prévoir des sanctions administratives pour obliger les plateformes à retirer immédiatement les contenus manifestement illicites. Il faut préciser la place du juge qui intervient ensuite pour gérer les difficultés ou les interprétations divergentes. Il faut aussi préciser la place des associations qui sont très efficaces dans la lutte contre le racisme et les propos odieux.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

... débattre sur chacun des articles mais je vais répondre aux questions très concrètes qui m'ont été posées. Quel sera le rôle du CSA ? Il interviendra tout le temps, en fait. En amont, il émettra des recommandations, tracera des lignes directrices, préconisera de bonnes pratiques. Les grandes plateformes ont un recueil de jurisprudences puisqu'elles ont déjà une obligation de retrait des contenus manifestement illicites. Le CSA prendra ses responsabilités en transmettant ses recommandations aux plateformes pour qu'elles sachent ce qu'elles ont à retirer. Il aura aussi un rôle de supervision des plateformes. Il sera l'interlocuteur référent sur le territoire national et il sera en lien avec les plateformes pour les accompagner. N'oublions pas que les dispositions ne s'appliquent qu'aux contenus manifest...

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Cet amendement vise à élargir considérablement le champ du texte à tous les opérateurs de retrait et, en plus, il enlève la notion de manifestement illicite pour les contenus. Demande de retrait ou, à défaut, avis défavorable.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaure de La Raudière :

Pour bien préciser ce qui qualifie la nature des contenus visés par l'article 1er, je propose d'écrire « manifestement illicites » après le mot « contenus ».

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Cet article 1er tient en une phrase qui dit expressément que, parmi ces contenus, seuls ceux « contrevenant manifestement » aux infractions listées seront concernés par l'obligation de retrait en vingt-quatre heures. Demande de retrait ou, à défaut, avis défavorable.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

...ents sujets. Si le harcèlement sexuel est déjà visé dans les infractions que je vous propose d'inclure dans le champ de la proposition de loi, le harcèlement scolaire n'est pas une infraction autonome. Quant au harcèlement moral, il pose une vraie difficulté, dans le sens ou, pour être établi, il nécessite la réitération. Il est donc difficile, en pratique, de l'inclure dans le cadre des contenus manifestement illicites pouvant être signalés sur une plateforme. Les infractions signalées ne doivent pas être sujettes à interprétation, et c'est sans doute la raison pour laquelle le Conseil d'État a tenu à ce que le champ d'application de cette proposition de loi soit très limité. Avis défavorable, même si j'entends la nécessité de mieux protéger les plus jeunes, et notamment les mineurs.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

J'en suis profondément désolée, mais le Conseil d'État a très précisément cadré le champ d'application du texte. Nous devons nous en tenir à des contenus pouvant être qualifiés de manifestement illicites et ne pouvant prêter à l'interprétation des opérateurs. Par ailleurs, la loi de 1881 ne vise pas l'apparence physique, et votre proposition impliquerait donc de la modifier. Or, en l'état, elle me paraît constituer un socle solide pour définir les discriminations visées par cette proposition de loi. Cela étant, il me semble que l'ensemble des obligations de moyens proposées dans le te...

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

...odieux prévue au 7 du I de l'article 6 de la LCEN. Nous en avons déjà évoqué plusieurs éléments : incitation à la violence, à la discrimination, à la haine et injures fondées sur la prétendue race, l'origine, la religion, l'ethnie, le sexe, l'identité de genre, l'orientation sexuelle et le handicap, qu'ils soient vrais ou supposés. Le Conseil d'État préconise l'ajout de plusieurs délits, toujours manifestement illicites : apologie de crimes de guerre, de crimes contre l'humanité et de crimes de réduction en esclavage, harcèlement sexuel, traite des êtres humains, proxénétisme, pornographique infantile et terrorisme. Tel sera le champ couvert par le texte.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaure de La Raudière :

Cet amendement vise à résoudre la question de la gestion des contenus gris, c'est-à-dire les contenus qui ne sont pas manifestement illicites et qui n'ont pas donné lieu à une décision de justice. Les plateformes ont l'obligation bien légitime de retirer dans les vingt-quatre heures tous les contenus qui ne respectent pas la loi. Dans certains cas, toutefois, il n'est pas facile de qualifier ce caractère illicite et l'avis d'un juge est nécessaire. En outre, la rapporteure a judicieusement prévu d'insérer une contrainte relat...

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

J'entends votre préoccupation. En l'état, le texte ne porte que sur les contenus manifestement illicites. Ceux qui ne sont pas manifestement illicites ne font pas l'objet d'une obligation de retrait dans les vingt-quatre heures. Je vous ferai une réponse en deux temps. Sur le plan juridique, tout d'abord, le Conseil d'État, au paragraphe 26 de son avis, indique que, pour ce qui concerne les contenus simplement illicites, aucune obligation expresse ne peut être imposée car elle ne serait p...

Photo issue du site de l'Assemblée nationale ou de WikipediaLaure de La Raudière :

Si j'ai déposé cet amendement, madame la rapporteure, c'est parce que vous allez proposer une disposition visant, pour protéger la liberté d'expression, à sanctionner les plateformes qui procéderaient à des suppressions excessives. Peut-être est-ce par méconnaissance du droit mais je m'interroge : une phrase apparaissant manifestement illicite peut-elle être considérée comme telle si elle ne correspond pas mot pour mot à un cas déjà visé par la jurisprudence ? Une image similaire mais pas identique à une autre ayant déjà fait l'objet d'une décision faisant jurisprudence pourra-t-elle être considérée comme manifestement illicite ? Sur le plan juridique, ces points me semblent encore instables – mais votre expérience est plus gr...

Photo issue du site de l'Assemblée nationale ou de WikipediaHervé Saulignac :

L'amendement de Mme de La Raudière soulève une question concrète. On ne saurait nier l'existence de ce qu'elle appelle à juste titre des « contenus gris ». Pour les plateformes, en effet, certains contenus seront difficiles à caractériser afin de déterminer s'ils sont ou non manifestement illicites. En Allemagne, en cas de doute, elles privilégient le sur-retrait. Si nous ne traitons pas la question des contenus gris, nous nous exposerons au même problème. J'entends votre argument habile, madame la rapporteure : il ne faut pas, dites-vous, faire peser l'entière responsabilité du retrait sur le juge, sans quoi tous les cas seront transférés à la justice et les plateformes opteront...