Interventions sur "illicite"

254 interventions trouvées.

Photo issue du site de l'Assemblée nationale ou de WikipediaPierre Morel-À-L'Huissier :

Cet amendement vise à compléter l'article 1er par l'alinéa suivant : « Dans le cas où un contenu illicite a fait l'objet d'un retrait, les opérateurs substituent au contenu illicite un message indiquant que le contenu illicite a été retiré en raison d'un signalement ou, le cas échéant, d'une décision administrative ou judiciaire ». Il a pour but d'appliquer l'information prévue aux alinéas 5 et 6 de l'article 33 de la loi du 29 juillet 1881, qui renvoient à l'article 131-5 du code pénal, à savoir la ...

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

...aire ». D'une part, le retrait d'un contenu ne peut pas découler d'une décision administrative. D'autre part, je suis attachée à la protection des internautes. La personne ayant signalé des contenus visant expressément une personne pourrait être mise en difficulté par la rédaction proposée : ce n'est pas sur le signalement qu'il faut mettre l'accent, mais sur le retrait lui-même, lié au caractère illicite du contenu. Je propose donc de retenir votre amendement, moyennant la suppression de la fin de l'alinéa, à partir de « en raison d'un signalement ».

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Cet amendement vise à préciser la place du juge dans le cadre de l'obligation de retrait. Le non-retrait par une plateforme d'un contenu manifestement illicite dans les vingt-quatre heures est déjà passible d'une sanction pénale prévue au 1 du VI de l'article 6 de la LCEN, à savoir un an d'emprisonnement et 250 000 euros d'amende.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

L'amendement CL95 vise à supprimer l'alinéa 2 concernant la sanction du CSA en cas de non-respect de l'obligation de retrait dans les vingt-quatre heures ; un amendement ultérieur y reviendra. L'objectif est d'assurer une bonne articulation entre les mesures afin que le dispositif soit bien compris. Nous avons créé le nouveau délit de non-retrait de contenus manifestement illicites, qui concerne les plateformes. Il convient naturellement de se tourner vers le juge – et non vers le CSA – pour obtenir une injonction de retrait et engager la responsabilité judiciaire de la plateforme concernée. Parallèlement, nous instaurons une régulation administrative à la main du CSA avec une sanction pouvant aller jusqu'à 4 % du chiffre d'affaires, à laquelle nous reviendrons. Elle s'app...

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Cet amendement vise à simplifier les mécanismes de notification des contenus illicites auprès des opérateurs de plateformes. Plusieurs éléments sont actuellement demandés ; nous proposons de rapprocher le texte de la pratique. Le notifiant devra fournir ses nom, prénoms et adresse électronique ou, s'il s'agit d'une personne morale, sa forme sociale, sa dénomination sociale et son adresse électronique ; les autorités administratives qui notifient devront quant à elles fournir leur ...

Photo issue du site de l'Assemblée nationale ou de WikipediaCaroline Abadie :

... porte lui aussi sur les notifications abusives. Lorsque le notifiant clique sur le bouton de signalement dont nous parlerons dans un prochain article, nous souhaitons qu'il dispose de l'information à l'instant t, qu'il engage sa responsabilité et qu'il connaisse la peine qu'il encourt en cas de notification abusive, c'est-à-dire le signalement sciemment abusif d'un contenu qu'il sait ne pas être illicite. Nous tâchons de limiter ces comportements abusifs en plaçant les notifiants devant leurs responsabilités, sachant qu'elles sont authentifiées et identifiables par la plateforme.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaure de La Raudière :

L'amendement reprend l'idée dont procédait un autre, tombé à la suite de la suppression des alinéas 3 à 5 de l'article 1er. Il vise à ce que soient rappelées, par une formulation générale, à l'auteur de la publication supprimée, dans la notification qui lui est envoyée, les sanctions civiles et pénales encourues en cas de publication d'un contenu manifestement illicite. Il s'agit de faire de la pédagogie, car certains auteurs ne sont pas conscients du fait que ce qu'ils écrivent en ligne peut être constitutif d'un délit pénal.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Un délai de quarante-huit heures, cher collègue Balanant, reste assez court, d'autant qu'il s'agit vraiment d'une démarche pédagogique en vue d'expliquer les raisons de l'absence de retrait d'un contenu qui n'est pas manifestement illicite. Je préfère que les plateformes concentrent leur énergie, leurs moyens, leur célérité sur la lutte contre les contenus illicites. Vient ensuite le travail d'information, bien sûr, mais dans des délais moins contraints, et qui restent raisonnables. Concrètement, si vous signalez un contenu que vous considérez comme manifestement illicite et que vous n'êtes pas informé dans un délai de vingt-quatr...

Photo issue du site de l'Assemblée nationale ou de WikipediaCaroline Abadie :

...e bouton dans ce qu'on appelle le footer – pied de page – ou dans les frequently asked questions (FAQ). Pour éviter que ce bouton soit dissimulé, nous suggérons qu'il soit « directement » accessible, c'est-à-dire que, sur chaque contenu, sur chaque poste, sur chaque commentaire, sur chaque page du résultat d'un moteur de recherche, il soit visible et directement accessible depuis le contenu jugé illicite par l'utilisateur.

Photo issue du site de l'Assemblée nationale ou de WikipediaRémy Rebeyrotte :

L'amendement CL175 vise à offrir aux mineurs, premiers utilisateurs des plateformes en ligne, une protection spéciale lorsqu'ils sont victimes de cyberviolence, que le contenu soit manifestement illicite ou qu'il s'agisse de haine sur internet. Cela peut, en effet, avoir des conséquences extrêmement graves pour les mineurs victimes.

Photo issue du site de l'Assemblée nationale ou de WikipediaIsabelle Florennes :

L'amendement CL50 est similaire. Les mineurs sont seuls face aux réseaux sociaux, notamment quand ils sont victimes d'attaques ou de harcèlement. Ils ne savent pas décrire en quoi les contenus sont manifestement illicites et n'ont pas toujours envie d'en parler à leurs parents. Il serait donc utile qu'une personne morale puisse signaler un contenu haineux. La mission du signaleur de confiance va d'ailleurs bien au-delà du signalement : il agit comme interface entre les plateformes et les mineurs. L'amendement conserve néanmoins le délai de vingt-quatre heures, afin de tenir compte des arguments techniques de Mme ...

Photo issue du site de l'Assemblée nationale ou de WikipediaHervé Saulignac :

L'amendement CL166 est identique. Les jeunes peuvent à la fois être victimes de cyberviolence et de cyberharcèlement. Il faut donc leur permettre de saisir, sans autorisation parentale – c'est essentiel – un signaleur de confiance, tel que défini par la recommandation de la Commission européenne du 1er mars 2018 sur les mesures destinées à lutter de manière efficace contre les contenus illicites en ligne. L'amendement CL167 est de repli puisqu'il ne concerne que la cyberviolence.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Ces différents amendements ont le même objectif : permettre à un mineur victime de comportements illicites sur internet de pouvoir faire appel à une association qui assurera, à sa place, le signalement et le suivi. J'y souscris pleinement. Mais les différentes rédactions posent problème – retour dans les douze heures, alors que la proposition de loi prévoit vingt-quatre heures dans tous les cas ; champs différents ; risque de lecture a contrario des dispositions. Sur ce dernier point, alors que la pr...

Photo issue du site de l'Assemblée nationale ou de WikipediaCaroline Abadie :

Nous l'avons abordé lors de la discussion générale, l'amendement vise à informer la personne qui notifie des risques qu'elle encourt en cas de notification abusive. Il ne s'agit pas d'empêcher un notifiant de bonne foi de signaler un contenu illicite, mais de limiter les notifications abusives – celles faites en parfaite connaissance de cause du caractère non-illicite du contenu.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

L'amendement CL110 reprend une des préconisations du Conseil d'État en matière de modération et de lutte contre les contenus haineux. Il vise à obliger les plateformes à rendre compte de l'organisation interne et des moyens qu'elles mettent en oeuvre pour se conformer à l'obligation de retrait et de leurs moyens et actions dans la lutte contre les contenus illicites. Le CSA fixera la liste des informations que les plateformes rendent publiques – certaines seront simplement transmises au CSA, d'autres communiquées au grand public.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Avis défavorable au sous-amendement : par cohérence avec les autres intitulés de chapitre de la proposition de loi, il faut maintenir les mots « contenus haineux en ligne », plus précis que « contenus manifestement illicites ».

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Nous laissons le pouvoir de sanction des contenus illicites au juge judiciaire. Je vous renvoie à l'article 1er : nous avons créé un délit pour sanctionner les plateformes qui ne retirent pas les contenus manifestement haineux sous vingt-quatre heures. Le CSA est doté d'un pouvoir de supervision générale qui porte sur l'accompagnement dans la mise en oeuvre de l'obligation de retrait, le contrôle des obligations de moyens et du comportement des platefor...

Photo issue du site de l'Assemblée nationale ou de WikipediaLaure de La Raudière :

J'aimerais avoir quelques précisions. Cet article ayant subi plusieurs réécritures, je ne suis pas certaine d'avoir bien compris le dispositif. Les recommandations du CSA ont pour mission de lutter contre la diffusion de contenus manifestement illicites, mais il faut veiller aussi à ce que les plateformes ne remettent pas en cause la liberté d'expression. Cette préoccupation a-t-elle sa place dans votre texte ? Imaginons qu'une plateforme supprime trop de contenus : dans ce cas, appliquera-t-on la même méthodologie ? Qui va contrôler les recommandations du CSA dans ce domaine ? La jurisprudence relative aux contenus manifestement illicites est...

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

...urs administratif devant le Conseil d'État. Vous posez également la question des plateformes qui procéderaient à des retraits excessifs : je pensais m'être expliquée clairement à ce sujet, mais je vais y revenir. Le CSA se fondera sur deux éléments pour constater un manquement : la méconnaissance des obligations de moyens et le non-respect de ses recommandations relatives au retrait des contenus illicites, ainsi que des bonnes pratiques qui doivent orienter les plateformes. Le CSA a surtout vocation à sanctionner les plateformes qui n'exercent pas des contrôles suffisants – c'est l'objet de cette loi – mais il pourra évidemment sanctionner celles qui procèdent à des retraits excessifs. Son rôle est d'analyser la conformité de la plateforme aux règles prescrites, dans une logique de régulation adm...