763 interventions trouvées.
Le filtrage des contenus, en particulier des images et des vidéos, est très coûteux. Les grandes plateformes des géants de l'informatique ayant beaucoup plus de moyens que les plateformes plus récentes, elles se trouvent avantagées pour l'utilisation de ces techniques. Existe-t-il des études sur le sujet ? Avez-vous réfléchi à ce problème ?
Telle qu'elle est aujourd'hui rédigée, la proposition de loi suscite mon inquiétude sur un point en particulier : le pouvoir donné aux plateformes. En contraignant ces dernières à retirer dans les 24 heures les contenus signalés comme incitant à la haine, ne court-on pas le risque qu'elles exercent une forme de censure à l'encontre de propos qui leur déplairaient pour des raisons de sensibilité propre, notamment politique ? Pouvez-vous nous rassurer sur ce point, madame la rapporteure ?
L'article 2 rappelle que les plateformes devront mettre en oeuvre les moyens humains ou technologiques proportionnés et nécessaires à un traitement dans les meilleurs délais des signalements reçus. Twitter, qui draine chaque jour des millions de messages, devra donc prévoir une armée de modérateurs en mesure de traiter toutes les notifications reçues, qu'elles soient sérieuses ou farfelues. Pensez-vous qu'un délai de 24 heures pour le ...
...n d'une infraction autonome réprimée par le juge judiciaire en cas de non-retrait après 24 heures ; le CSA, régulateur, pourra ainsi appuyer ses analyses sur les plaintes et les condamnations prononcées. Sur la prévention, les jeunes ne sont pas les seuls concernés. Il est néanmoins plus difficile de toucher le public plus âgé dans son ensemble autrement que par la sensibilisation opérée par les plateformes elles-mêmes. Plusieurs amendements de Mme Bannier et de Mme Kuster vont dans ce sens. Ce n'est toutefois pas le champ de compétence de notre commission ; c'est pourquoi je me suis centrée sur les élèves et, plus généralement, les jeunes. Les enseignants doivent à cet égard disposer de clés pour juguler ce phénomène et être en mesure de détecter les potentielles victimes. Quant au risque de cens...
...ues grâce à l'intelligence artificielle, mais ces technologies ont encore des limites, notamment quand le contenu est légèrement modifié par rapport à l'original. C'est pourquoi il est accordé une telle importance au signalement, dont la procédure doit être simplifiée pour les utilisateurs et les associations qui peuvent oeuvrer dans ce domaine. Il faudra également promouvoir la coopération entre plateformes, car rien n'est prévu en cas de suppression d'un contenu par l'une d'entre elles à la suite d'une décision judiciaire. Les représentants des réseaux sociaux que nous avons auditionnés sont d'ailleurs favorables à un partage d'informations pour neutraliser la viralité des propos haineux. Le CSA pourra formuler de recommandations en ce sens.
Cet article met en place une contrainte sur les plateformes, qui devront retirer les contenus comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l'ethnie, du sexe, de l'orientation sexuelle ou du handicap, ce à quoi nous sommes évidemment favorables. Mais nous avons des doutes quant à l'efficience de ce dispositif, qui ne s'accompagne pas réellement d'une prise en charge des victimes. Pire encore, on laisse aux pla...
... utile de créer de nouveaux dispositifs. Des moyens supplémentaires pour la justice seraient néanmoins probablement nécessaires, je vous l'accorde. Je ne peux pas vous laisser dire que le CSA n'applique jamais les sanctions prévues, soit jusqu'à 3 % du chiffre d'affaires pour les chaînes de télévision et de radio qui commettent des manquements graves. Il le fera donc aussi pour les opérateurs de plateforme, à l'instar de ce que fait aujourd'hui la Commission nationale de l'informatique et des libertés (CNIL). Google a ainsi été condamné récemment à 50 millions d'euros d'amende, un montant significatif. Je n'ai donc aucune crainte quant à ce que cette possibilité légale soit utilisée par le CSA toutes les fois qu'il le jugera nécessaire. Je vous rejoins cependant sur le fait qu'en l'état actuel, le...
J'ai moi-même rencontré l'association La Quadrature du Net, qui propose une solution techniquement intéressante, l'interopérabilité des grandes plateformes avec les autres services internet. Mais celle-ci a pour défaut de ne pas tenir compte des pratiques. Si les utilisateurs vont vers des plateformes telles que Twitter ou Snapchat, c'est principalement pour leur attractivité, pour leur visibilité. Quant au CSA, il est intervenu à de très nombreuses reprises l'année dernière dans le domaine audiovisuel à la suite de signalements de propos racistes...
La lutte contre les contenus haineux publiés sur internet, un objectif d'intérêt général, commande d'effacer la distinction que la loi opère entre le statut d'éditeur et celui d'hébergeur. Cet amendement prévoit qu'une fois le contenu illicite notifié, les opérateurs de plateforme en ligne comme leurs hébergeurs sont tenus, dans un délai de 24 heures, de procéder à sa suppression ou à son retrait et que, en cas de manquement, ils sont soumis au même régime de sanction.
...mais n'est pas concernée, à titre principal, par le régime décrit dans la loi pour la confiance dans l'économie numérique quant aux contenus haineux. Je ne pourrai donc vous apporter une réponse aussi éclairée que celle de la rapporteure au fond sur ce sujet. Néanmoins, tel qu'il est rédigé, votre amendement risque d'entraîner une certaine confusion car il donne l'impression que les opérateurs de plateforme en ligne visés par le code de la consommation ne sont pas des hébergeurs au sens de la LCEN et de la directive e-commerce. Les opérateurs de plateforme ne sont pas hébergés par d'autres : ils sont des hébergeurs. J'y suis donc défavorable.
Le 15 mai dernier, la France a lancé aux côté de la Nouvelle-Zélande l'appel de Christchurch exprimant sa volonté de lutter contre les contenus terroristes et extrémistes violents sur le net. L'examen de cette proposition de loi est l'occasion de donner corps à cet engagement en ajoutant les contenus terroristes et extrémistes violents à la liste des contenus que les plateformes numériques se doivent de retirer dans les 24 heures suivant leur signalement. Tel est l'objet de cet amendement.
...uations. Le harcèlement scolaire se définit par la violence, les agressions régulières, verbales, physiques ou psychologiques. Les enfants sont insultés, bousculés, menacés, battus ou injuriés. Cette réalité insoutenable ne doit pas avoir sa place au sein de l'école de la République. C'est pourquoi nous proposons par cet amendement d'ajouter le harcèlement scolaire à la liste des contenus que les plateformes numériques se doivent de retirer dans les 24 heures suivant leur signalement.
... du spectacle, de s'opposer à la diffusion, sans son autorisation expresse, de son image, attribut de sa personnalité. » La jurisprudence consacre aussi une neutralité technologique permettant que le droit à l'image s'applique de la même manière lorsque l'atteinte à l'image a lieu sur internet. Il convient dès lors d'ajouter les atteintes à la vie privée d'autrui à la liste des contenus que les plateformes numériques se doivent de retirer dans les 24 heures suivant leur signalement.
Les images violentes ou à caractère terroriste trouvent un champ d'expression et de diffusion extrêmement large sur les plateformes en ligne. Si les opérateurs parviennent, souvent avec les plus grandes difficultés, à extraire les contenus violents les plus relayés, beaucoup d'images particulièrement choquantes échappent à leur vigilance. À l'heure de l'Appel de Christchurch, lancé depuis l'Élysée par le Président de la République et la Première ministre néo-zélandaise, en présence des principaux éditeurs mondiaux de conten...
Je propose de mentionner les élus ou représentants de l'autorité publique dans cet article. En tant qu'élus, nous pouvons être attaqués sur les réseaux sociaux, mais j'ai pensé également aux enseignants et aux représentants des forces de l'ordre. Du seul fait de représenter l'État, ces personnes peuvent être fragilisées et particulièrement visées sur les plateformes. L'amendement propose d'ajouter ces contenus qui, pour l'instant, ne sont pas visés comme les propos haineux ou injurieux tenus envers des personnes en raison de la race, la religion, l'ethnie, le sexe, l'orientation sexuelle ou le handicap.
Mon amendement vise à clarifier et à mieux coordonner le champ de l'obligation de retrait des contenus d'incitation à la haine par les plateformes, en renvoyant aux septièmes et huitième alinéas de l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse, afin d'être en phase avec les textes existants.
Au dispositif de signalement et de recours prévu par les plateformes, nous proposons d'ajouter un dispositif de prévention. Il est important que les plateformes diffusent des messages de prévention à l'égard des utilisateurs, informant des conséquences très néfastes que peuvent avoir des discours haineux.
Je ne suis pas contre la création d'un tel conseil, qui pourrait fonctionner comme le comité d'experts « jeune public » qui existe depuis 2005 et regroupe des psychologues, des pédiatres, des associations, etc. On pourrait tout à fait imaginer que le CSA fasse la même chose en ce qui concerne les plateformes. Néanmoins, je ne crois pas nécessaire de l'inscrire dans le texte, sauf à alourdir la loi de 1986 qui est déjà très dense. Qui plus est, votre amendement n'apporte aucune précision sur le rôle que tiendrait exactement ce conseil scientifique. Avis défavorable.
Le présent amendement vise à établir un lien plus clair entre la transmission d'informations régulière de la part des plateformes au CSA et les recommandations que ce dernier peut prendre dans le domaine de la lutte contre les contenus haineux.
Dans la même logique que celle du bilan annuel, le présent amendement vise à permettre au CSA de publier tout ou partie des informations que les opérateurs de plateforme seront tenus de lui transmettre mensuellement.