135 interventions trouvées.
...blique comme en commission : la notion de contenu haineux est juridiquement et intellectuellement floue et instable. Elle est source, par conséquent, d'insatisfaction et de frustration. Elle peut être sujette à caution, notamment pour les contenus de la fameuse zone grise, qui requièrent une interprétation parce que les algorithmes et les équipes de modération ne les auraient pas jugés clairement illicites. Enfin, le secrétaire d'État l'a évoqué, il est essentiel d'oeuvrer à l'échelle européenne. Alors que les nations européennes travaillent à un projet de réglementation, nous courons le risque de devoir réviser notre dispositif franco-français. Dans cette phase ultime de la discussion, nous avons déposé quelques amendements en guise de baroud d'honneur et nous espérons avoir le temps de les déf...
...ins considèrent qu'une trop grande latitude leur sera laissée. Il n'en est rien, d'une part parce que le retrait de toute publication devra être signalé à son auteur, qui recevra alors une information complète – date et heure du signalement, motif du retrait et sanction encourue – ; d'autre part car tout signalement abusif de contenu sera sanctionné ; enfin, parce que tout contenu retiré car jugé illicite devra être conservé pour être mis à la disposition de l'autorité judiciaire en cas d'enquête. Je rappelle également qu'en complément de ces dispositions, les plateformes devront se conformer aux recommandations du CSA, lequel pourra infliger une sanction financière aux opérateurs en cas de manquement. Là encore, nous avons, me semble-t-il, posé un garde-fou. Nous sommes, comme vous, désireux de...
...ur du phénomène, humble face à son évolution. Il n'y a pas de réponse simple et complète qui permettrait de trouver un équilibre parfait entre la protection des individus et la défense naturelle de la liberté d'opinion. Je tiens à souligner que certains d'entre nous sont encore sceptiques concernant la réponse à apporter au problème des contenus gris. Faire la distinction entre contenu licite et illicite est souvent aisé, mais pas toujours. Par conséquent, certains considèrent que la place du juge judiciaire aurait pu être mieux consacrée dans un mécanisme qui met en jeu une de nos libertés les plus fondamentales. Ce point justifiera certaines abstentions au sein de notre groupe. Le rôle du législateur sera d'être vigilant quant au respect de la liberté d'expression, c'est-à-dire à l'application...
...ticle 1er, de transférer aux moteurs de recherche et aux plateformes de partage le pouvoir du juge, celui qui réside notamment dans le pouvoir d'appréciation et qui participe de l'élaboration de la jurisprudence. Vous acceptez de confier sans retenue ce pouvoir aux plateformes, en leur donnant un pouvoir de retrait en vingt-quatre heures de tous les contenus qu'elles auraient jugés manifestement illicites, en habillant habilement ce pouvoir du mot « responsabilisation ». Par ailleurs, vous avez introduit au dernier moment une obligation de retrait en une heure de contenus qualifiés de terroristes, par la seule police, sans recours au juge. Alors que vous avez été censurés pour la deuxième fois, il y a deux jours, par le Conseil constitutionnel
Avis défavorable, puisqu'ils visent à remettre en cause le coeur du texte, qui est de fixer des obligations de résultats aux plateformes en matière de modération des contenus manifestement illicites. Je pense qu'il est important de rappeler que nous ne transférons absolument aucun pouvoir aux plateformes, qui peuvent déjà retirer des contenus en vertu d'une directive de 2000 et d'une loi de 2004. Or, vous le voyez bien, elles ne le font aujourd'hui qu'au regard de leurs conditions générales d'utilisation et de leurs propres priorités. Si, au cours des deux derniers mois, vous avez signalé ...
La proposition de loi vise donc à rappeler aux plateformes que depuis 2004, elles ont une obligation de retrait des contenus manifestement illicites tels qu'ils sont définis par la loi de 1881. Le juge est présent aujourd'hui et les plateformes sont soumises au régime de la responsabilité, mais combien de condamnations ont-elles été prononcées ? Zéro, parce que le régime de responsabilité est inopérant ! Nous construisons donc un régime de responsabilité opérationnel qui permettra d'inscrire, en parallèle des grands pouvoirs que détiennent c...
Quoi qu'il en soit, Mme la rapporteure a fait la même confusion puisqu'elle a évoqué, elle aussi, les retraits de contenus en vingt-quatre heures. Pour revenir aux présents amendements, vous avez affirmé qu'il existait un consensus, en l'état actuel, sur le retrait des contenus illicites dans l'heure. La proposition de loi n'est pas encore définitivement adoptée, mais je vous rejoins sur ce point. En revanche, le Parlement européen, même s'il ne s'est pas encore prononcé officiellement sur cette question, n'est pas favorable à un dispositif ne prévoyant pas l'intervention du juge ou d'une autorité administrative.
...ait abusif de contenus pourra être sanctionné, avec notamment une amende pouvant atteindre 15 000 euros. Mais là encore, c'est un problème d'autocensure qui se pose. Je ne prétends pas que la situation actuelle est favorable, ni que vous n'agissez pas. Mais le contenu de votre proposition de loi me fait très peur. Nous aurons l'occasion d'en reparler : en recourant à l'expression « manifestement illicite », vous donnez un pouvoir d'interprétation aux plateformes pour les propos relevant de ce que l'on peut qualifier de zone grise.
Rappelez-vous, madame la ministre, nos débats très intéressants dans l'hémicycle à ce sujet. Tout le monde considère que ce qui est manifestement illicite est évident. De nombreux amendements avaient d'ailleurs été déposés à cet égard. Or ce qui est manifestement illicite sur le plan juridique n'est pas évident. Cette catégorisation nécessite des efforts, un travail ; elle n'est pas si simple.
Il me semble utile de s'intéresser à l'avis de la Cour européenne des droits de l'homme – CEDH. Dans l'arrêt Delfi du 16 juin 2015, elle admet que les États puissent imposer aux éditeurs de sites web commerciaux de rechercher et censurer les commentaires ostensiblement illicites des internautes sans attendre qu'ils soient signalés. La Cour précise qu'elle n'estime pas que l'imposition d'une obligation de retirer de son site web, sans délai après leur publication, des commentaires constitutifs d'un discours de haine et d'incitation à la violence, dont on pouvait comprendre au premier coup d'oeil qu'ils étaient clairement illicites, ait constitué, en principe, une ingéren...
Avant de présenter cet amendement, je voudrais revenir rapidement sur les propos qui viennent d'être tenus. Évidemment, nous sommes tous d'accord lorsqu'il s'agit de contenus ostensiblement illicites, pour reprendre les termes de la Cour européenne des droits de l'homme. Ce qui pose problème, ce sont les propos qui se trouvent dans la zone grise. C'est sur ce point que nous devons être vigilants et ne pas laisser aux plateformes le pouvoir de déterminer ce qu'est un propos illicite. Nous avons mille exemples à ce sujet, mais je crois que nous ne comprendrons pas et n'accepterons pas, les uns...
...nt un contenu mais une page entière, voire un site, risque de porter atteinte à la liberté d'expression. Mme Pau-Langevin nous a expliqué que si nous avions bien lu la proposition de loi, nous serions tous d'accord ! Notre lecture est peut-être différente, mais tout le monde peut comprendre que si 80 % des millions de contenus qui sont chaque jour supprimés par les plateformes sont manifestement illicites au regard du bon sens, ils ne le sont pas forcément sur le plan juridique. C'est de cette zone grise, où les interprétations du juge du fond, de celui de l'appel et de la Cour de cassation peuvent diverger, dont nous vous parlons.
L'amendement no 19 vise à introduire, comme le Sénat l'avait proposé, un critère plus souple en matière de viralité. Il s'agit de dessiner un peu plus précisément la régulation de demain. Quant à l'amendement no 20, il traduit notre volonté de faire du sur-mesure, comme le Sénat l'avait proposé. En effet un contenu pourra également être supprimé non parce qu'il est illicite, mais parce que son auteur a décidé de le supprimer, et il serait bon de faire la différence entre ces deux cas. Je pense en effet que le monde de demain aura besoin de mesures certes efficaces mais assez subtiles pour respecter des principes qui nous tiennent à coeur, tels que la liberté d'expression ou la reconnaissance de la place et du rôle du juge, qui fondent notre démocratie depuis deux si...
L'amendement no 20 ne vise pas à informer du retrait d'un contenu quel qu'il soit ; il vise à préciser dans le message se substituant au contenu haineux que ce dernier a été supprimé par la plateforme « en raison de son caractère illicite ».
J'avais déposé cet amendement reprenant une excellente disposition qui avait été introduite par le Sénat avant de savoir que Mme la rapporteure allait déposer un amendement identique. Il s'agit d'encadrer de façon stricte les modalités de conservation des contenus considérés comme illicites, notamment temporelles, dans l'éventualité d'une transmission à la justice. Nous proposons qu'un décret en Conseil d'État, pris après consultation de la Commission nationale de l'informatique et des libertés – CNIL – , fixe la durée et les autres modalités de conservation.
...rapporteur de la commission des lois, Christophe-André Frassa, et vise à réserver aux seules associations reconnues d'utilité publique la possibilité de notifier un contenu haineux lorsqu'elles en sont saisies par un mineur. Parce qu'ils font partie des utilisateurs les plus actifs des réseaux sociaux, les mineurs sont particulièrement exposés aux cyberviolences et plus généralement aux contenus illicites. L'article 1er ter B de la proposition de loi ouvre aux associations de protection de l'enfance la possibilité de notifier un contenu haineux lorsqu'elles en sont saisies par un mineur. Gage d'un minimum de sérieux, le critère de reconnaissance d'utilité publique devrait permettre, d'une part, de s'assurer de la qualité de la prise en charge des mineurs dans le cadre des signalements aux platef...
...mpose aux opérateurs des plateformes en ligne à fort trafic, de retirer les contenus litigieux et de les rendre inaccessibles dans un délai de vingt-quatre heures. Malgré les précautions prises et les références à la liberté de la presse ou à des articles du code pénal, nous pensons que ces opérateurs auront du mal à déterminer aussi rapidement et surtout aussi sûrement le caractère manifestement illicite d'un contenu. Nous craignons de ce fait un risque de sur-censure. Il est en effet assez probable que, dans ce délai très court, un principe de précaution ou de prévention conduira à une censure excessive, en l'absence de l'intervention d'un juge qui dise le droit. Le risque est d'aller au-delà de la censure de discours haineux et de censurer aussi des critiques à caractère idéologique qui ont to...
...e elle. Or si nous sacrifions l'État de droit dans ce combat, c'est la haine qui aura gagné. Les contenus mentionnés dans l'article 1er sont pénalement répréhensibles. Qu'ils soient donc condamnés par la justice dans le cadre d'une procédure équitable. Il est impératif de conforter la place du juge judiciaire, gardien des libertés fondamentales, à tous les niveaux de la lutte contre les contenus illicites et de renforcer les moyens d'action de la justice. L'article 1er n'apporte pas la bonne réponse au problème que nous cherchons à résoudre. Les opérateurs de plateformes en ligne, qui sont des sociétés privées, n'ont pas à se substituer au juge en matière de répression des crimes et délits. La justice ne peut être rendue que par un juge, dont les décisions s'inscrivent dans une procédure précise...
...lique : nous devons protéger nos concitoyens des déferlantes quotidiennes de haine sur les réseaux sociaux. Certains orateurs ont estimé que la proposition de loi conduisait à une privatisation de la liberté d'expression. Soit. Mais imaginons que nous supprimions l'article 1er et que nous en restions au droit en vigueur : les plateformes auraient toujours la possibilité de supprimer les contenus illicites sans qu'on sache ni quand ni comment et sans qu'aucune sanction leur soit applicable. En somme, si l'article était supprimé, on en reviendrait au statu quo et les plateformes pourraient continuer d'agir comme bon leur semblerait. Vous soutenez que nous allons déléguer l'autorisation de censure aux plateformes mais nous n'allons rien déléguer puisque la loi de 2004 pour la confiance dans l'économ...
En revanche, si les plateformes retirent des contenus de manière excessive, ce n'est pas un délit qui s'applique, mais une sanction du Conseil supérieur de l'audiovisuel, le CSA, qui peut représenter jusqu'à 4 % du chiffre d'affaires mondial de la plateforme. La sanction prévue en cas de sur-censure est par conséquent bien plus élevée que la sanction prévue en cas de non-retrait de contenus illicites. Et elle est suffisamment dissuasive pour que les plateformes évitent de s'adonner à ce qu'on pourrait considérer comme une facilité ; 4 % du chiffre d'affaires mondial, c'est une épée de Damoclès suffisamment menaçante pour s'assurer que chacun fera son travail. L'article 1er tel que nous vous le proposons est équilibré, il répond, je vous le garantis, à toutes les questions qui ont été soulev...