763 interventions trouvées.
Par le présent amendement, je vous propose d'étendre le spectre de cette proposition de loi aux plateformes de financement participatif en ligne telles que Leetchi ou Le Pot commun. Ces plateformes se sont en effet largement démocratisées et elles sont devenues un moyen comme un autre de diffuser des idées, hélas parfois haineuses, sur internet. En décembre dernier, PHAROS a ainsi ouvert une procédure contre le créateur d'une cagnotte Leetchi destinée à financer un tueur à gages pour éliminer le Prési...
Cet amendement étend le champ d'application du texte aux plateformes de financement participatif mais aussi à l'ensemble des places de marché, dites marketplaces. Le Conseil d'État a débattu du champ d'application complet du texte, je vous le dis en toute transparence. Il a estimé qu'il fallait l'étendre aux moteurs de recherche mais pas aux plateformes qui font de l'échange de biens et de services pour deux raisons : cette obligation extrêmement renforcée doit r...
Je n'ai pas eu connaissance de cet avis du Conseil d'État. Je souhaiterais que nous puissions avoir un temps d'échange avant l'examen du texte dans l'hémicycle car ces plateformes de financement participatif posent un vrai problème. L'exemple que je vous ai cité n'est pas anodin. Il est peut-être possible de faire évoluer le texte en prenant des précautions pour tenir compte de la position du Conseil d'État. À ce stade, je souhaiterais maintenir mon amendement.
Nous proposons que puisse être retiré d'une plateforme tout contenu constituant une contestation ou une négation d'un crime contre l'humanité ou d'un génocide. On ne peut en effet tolérer que soient diffusés sur internet certains propos sur le génocide arménien ou l'abolition de l'esclavage. En 2017, la loi relative à l'égalité et à la citoyenneté entendait incriminer la négation des crimes contre l'humanité, mais le Conseil constitutionnel, suivant...
Sur ce sujet extrêmement sensible, le législateur français a permis de cadrer les débats, grâce, entre autres, aux lois « Gayssot » et « Taubira ». Or l'objet de cette proposition de loi est de contraindre les opérateurs à supprimer d'eux-mêmes les contenus délictueux de leurs plateformes. Il me semble que c'est une manière de privatiser des décisions qui relèvent de la justice. Certes, il n'y aura nul débat entre nous sur la manière de qualifier la Shoah, l'esclavage ou le génocide arménien, mais l'ensemble des mémoires blessées est aujourd'hui si complexe qu'il me paraît nécessaire de circonscrire juridiquement ces sujets sensibles et de ne pas miser sur l'interprétation qu'en ...
...ns les infractions que je vous propose d'inclure dans le champ de la proposition de loi, le harcèlement scolaire n'est pas une infraction autonome. Quant au harcèlement moral, il pose une vraie difficulté, dans le sens ou, pour être établi, il nécessite la réitération. Il est donc difficile, en pratique, de l'inclure dans le cadre des contenus manifestement illicites pouvant être signalés sur une plateforme. Les infractions signalées ne doivent pas être sujettes à interprétation, et c'est sans doute la raison pour laquelle le Conseil d'État a tenu à ce que le champ d'application de cette proposition de loi soit très limité. Avis défavorable, même si j'entends la nécessité de mieux protéger les plus jeunes, et notamment les mineurs.
Les chiffres cités par Erwan Balanant sont suffisamment édifiants pour que nous acceptions de lutter contre le harcèlement. Notre groupe a néanmoins considéré qu'il était difficile d'imposer aux plateformes une obligation de résultat et un retrait des contenus dans les vingt-quatre heures en matière de harcèlement scolaire, dans la mesure où ce n'était pas un délit. Nous avons, cela étant, déposé d'autres amendements introduisant une obligation de moyens en matière de lutte contre le cyberharcèlement et mettant en oeuvre des mesures de prévention.
...ue, dans lequel seraient abordées l'ensemble des problématiques, du codage aux enjeux sociétaux, l'accent étant tout particulièrement mis sur le mode d'emploi des réseaux sociaux. Sur ce point malheureusement, l'éducation nationale manque d'ambition au regard de la rapidité avec laquelle évoluent les comportements numériques. Travailler en ce sens sera beaucoup plus efficace que de demander à des plateformes de rendre la justice à notre place.
Comme les discriminations à raison du handicap, les discriminations à raison de l'état de santé doivent être interdites sur les plateformes internet.
Cet amendement va nous permettre d'ouvrir un débat mais, en réalité, il ne me satisfait pas complètement. Il vise à réduire de vingt-quatre heures à douze heures le délai sous lequel les plateformes en ligne sont tenues d'effacer les contenus faisant l'objet d'un signalement. Vingt-quatre heures sur internet, c'est une éternité. Cela étant, c'est un délai qui peut conduire à des formes de censure automatique, voire préventive – et c'est encore plus vrai lorsque le délai est ramené à douze heures. Il y a donc un problème, mais j'aimerais avoir votre point de vue, madame la rapporteure, de m...
J'ai une obsession avec ce texte, c'est qu'il soit opérationnel. Le délai de vingt-quatre heures est réaliste, c'est en tout cas la conclusion à laquelle j'ai abouti à l'issue de mes travaux sur la manière dont les plateformes fonctionnent et dont elles traitent les contenus. Par ailleurs, il correspond à ce qui se pratique en Allemagne ainsi qu'au code de bonne conduite européen. Avis défavorable.
Il s'agit de préciser que ce sont les utilisateurs de la plateforme qui sont habilités à notifier un contenu illicite.
Cet amendement vise à résoudre la question de la gestion des contenus gris, c'est-à-dire les contenus qui ne sont pas manifestement illicites et qui n'ont pas donné lieu à une décision de justice. Les plateformes ont l'obligation bien légitime de retirer dans les vingt-quatre heures tous les contenus qui ne respectent pas la loi. Dans certains cas, toutefois, il n'est pas facile de qualifier ce caractère illicite et l'avis d'un juge est nécessaire. En outre, la rapporteure a judicieusement prévu d'insérer une contrainte relative aux suppressions excessives. Autrement dit, les plateformes sont prises en é...
...s manifestement illicites. Sur le plan pratique, ensuite, si un contenu n'est pas manifestement illicite ou s'il suscite une interrogation, le deuxième volet du texte, qui organise la régulation administrative et le lien général avec le CSA, crée une instance de dialogue qui vise à parfaire les choses en formulant des recommandations et des lignes directrices. La seule exigence qui est faite aux plateformes consiste à retirer les contenus manifestement illicites, ni plus ni moins. Dans l'hypothèse où une plateforme ne retirerait pas un contenu dans les vingt-quatre heures parce qu'elle doute de son caractère manifestement illicite, elle pourra s'en justifier dans plusieurs forums, soit devant le juge si elle doit comparaître pour défaut de retrait, car il faudra prouver le caractère intentionnel de...
Si j'ai déposé cet amendement, madame la rapporteure, c'est parce que vous allez proposer une disposition visant, pour protéger la liberté d'expression, à sanctionner les plateformes qui procéderaient à des suppressions excessives. Peut-être est-ce par méconnaissance du droit mais je m'interroge : une phrase apparaissant manifestement illicite peut-elle être considérée comme telle si elle ne correspond pas mot pour mot à un cas déjà visé par la jurisprudence ? Une image similaire mais pas identique à une autre ayant déjà fait l'objet d'une décision faisant jurisprudence pour...
Concrètement, les plateformes ont en effet l'obligation d'appliquer la loi, ni plus ni moins. C'est ce que prévoit le texte. La responsabilité qui leur incombe est certes difficile, mais elle correspond à la réalité. Les plateformes ne sauraient céder à une quelconque facilité consistant, dans le doute, à retirer un contenu, d'autant plus – c'est là une différence avec la loi allemande – qu'elles disposent d'un certain nombr...
L'amendement de Mme de La Raudière soulève une question concrète. On ne saurait nier l'existence de ce qu'elle appelle à juste titre des « contenus gris ». Pour les plateformes, en effet, certains contenus seront difficiles à caractériser afin de déterminer s'ils sont ou non manifestement illicites. En Allemagne, en cas de doute, elles privilégient le sur-retrait. Si nous ne traitons pas la question des contenus gris, nous nous exposerons au même problème. J'entends votre argument habile, madame la rapporteure : il ne faut pas, dites-vous, faire peser l'entière respon...
Au contraire, il me semble que cet amendement a la vertu de mettre en lumière la responsabilité qui incombera désormais aux plateformes, qui ne pourront pas s'en remettre à une tierce personne, le juge ou autre, pour apprécier si les contenus sont manifestement illicites. Rassurez-vous : très vite, ce qui constitue un contenu manifestement illicite apparaîtra sans ambiguïté, et ce qui relève de cette définition est déjà assez clair. Il ne me semble donc pas y avoir de difficulté majeure. En revanche, la procédure proposée par l...
Je comprends cet amendement et je me réjouis que nous nous penchions sur cette question. Je souscris néanmoins aux propos de la rapporteure : au fond, nous sommes en train d'élaborer une nouvelle déontologie des plateformes à travers les bonnes pratiques diffusées par le CSA lequel, dans les cas difficiles et délicats que présentent les contenus gris pour les plateformes, pourrait jouer pleinement son rôle plutôt que le juge, qui peut toujours être saisi. Qu'en pensez-vous, madame la rapporteure ?
Ce débat fait apparaître plusieurs limites et chausse-trapes du texte. Vous parlez de plateformes de manière théorique mais, en pratique, ce sont des personnes qui vont traiter ces cas. Or la masse d'informations est considérable. Plusieurs articles de presse, sur le média en ligne Les Jours, et des recherches conduites par des journalistes aux États-Unis révèlent les conditions dans lesquelles les personnes employées par les plateformes effectuent ce travail de modération des propos en lign...