Interventions sur "plateforme"

763 interventions trouvées.

Photo issue du site de l'Assemblée nationale ou de WikipediaFabienne Colboc, rapporteure pour avis :

Les parents étant censés autoriser l'inscription de leurs enfants de moins de quinze ans, autant leur fournir tous les renseignements nécessaires. Beaucoup de parents ne prennent conscience des enjeux attachés à l'utilisation des plateformes qu'une fois que les dégâts sont constatés.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

...as de faire plaisir à qui que ce soit. Seules m'importent les dispositions qui vont dans le bon sens. Par ailleurs, je rappelle que par mon sous-amendement, j'ai proposé de retirer le second alinéa de l'amendement CL11 qui ne me paraît pas opérationnel. J'ai suggéré de faire rentrer le premier alinéa dans l'article 6-3 de la LCEN, c'est-à-dire dans le champ des obligations de moyens imposées aux plateformes. Elles seraient soumises à l'obligation de mettre en oeuvre des dispositifs d'information et de sensibilisation des parents. Au titre du RGPD, les mineurs de moins de treize ans ne peuvent donner leur consentement pour créer un compte sur les réseaux sociaux et ceux qui sont âgés de treize à quinze ans doivent recueillir l'autorisation parentale pour s'inscrire. Concrètement, c'est à cette étap...

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Cet amendement reprend, dans le régime instauré par la proposition de loi, l'obligation faite aux opérateurs de plateforme de rendre compte aux autorités publiques des activités haineuses prévue dans la LCEN.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

...s avec l'autorité judiciaire. Cela concerne l'aggravation des sanctions pénales en cas de non-coopération, qui passeraient de 75 000 euros à 250 000 euros pour les personnes physiques et à 1,25 million d'euros pour les personnes morales. Le reste des dispositions de l'article 5 a vocation à figurer au sein de l'article 3, parmi les obligations de moyens auxquelles seront soumis les opérateurs de plateforme visés par la proposition de loi. Je parle ici de l'obligation faite aux plateformes de désigner un représentant légal sur le territoire français, interlocuteur référent du régulateur chargé de répondre aux demandes de l'autorité judiciaire, notamment celles qui portent sur l'identification de ceux de leurs utilisateurs qui commettent des délits.

Photo issue du site de l'Assemblée nationale ou de WikipediaCaroline Abadie :

Cet amendement vise le cyber-harcèlement. Nous souhaiterions que les victimes puissent notifier les contenus en cause aux plateformes qui auraient obligation de conserver l'ensemble des données afin de faciliter les actions en justice. Cette obligation est davantage une obligation de moyens qu'une obligation de résultat. Nous essayons par ce biais de permettre aux victimes de s'armer mieux, de limiter les attaques et de se préparer aux poursuites judiciaires.

Photo issue du site de l'Assemblée nationale ou de WikipediaDanièle Obono :

Cet amendement vise à éviter que les algorithmes utilisés par les plateformes aient pour conséquence de perpétuer, de produire ou de renforcer des préjugés justifiant et instituant des discriminations entre les personnes en raison de ce qu'elles sont. Nous savons que les grandes plateformes produisent des biais algorithmiques, qui ont fait l'objet de plusieurs études. Pensons aux analyses de Cathy O'Neil dans son ouvrage Weapons of Math Destruction, dont l'édition frança...

Photo issue du site de l'Assemblée nationale ou de WikipediaDanièle Obono :

.... Nous sommes donc bien dans le champ du texte. En outre, cet amendement tend à rendre transparents les ressorts des algorithmes. Nous connaissons le rôle crucial que jouent en ce domaine des lanceuses et lanceurs d'alerte et des associations. Grâce à cette disposition, ils pourraient d'autant mieux contribuer à corriger ces biais. Cela n'a rien à voir avec le travail des régulateurs. C'est aux plateformes d'agir et la transparence est une manière de les responsabiliser.

Photo issue du site de l'Assemblée nationale ou de WikipediaDanièle Obono :

Par cet amendement, nous proposons que les plateformes numériques mettent en place des dispositifs d'information et de communication visant à lutter contre la haine en ligne. Le régime de responsabilité et les obligations qui reposent sur les plateformes ne reflètent pas l'importance de la part qu'elles prennent dans les usages numériques des citoyens. Aujourd'hui, 40 % des jeunes disent avoir été victimes d'une agression en ligne. Pourtant les plat...

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Votre amendement est satisfait par les dispositions que nous avons votées à l'article 3 : « Les opérateurs de plateforme mettent à disposition une information publique, claire et détaillée sur les dispositifs de recours internes, judiciaires, ainsi que sur les délais de recours dont disposent les victimes de contenus mentionnés au premier alinéa de l'article 6-2 et sur les acteurs en mesure d'assurer l'accompagnement de ces victimes ». Je vous demande donc de retirer votre amendement, madame Obono.

Photo issue du site de l'Assemblée nationale ou de WikipediaGéraldine Bannier :

Cet amendement prévoit d'obliger les opérateurs de plateforme à mettre en place, outre le dispositif de signalement, un dispositif de prévention afin d'informer leurs utilisateurs des conséquences néfastes de la diffusion de contenus haineux. Le travail de pédagogie n'incombe pas seulement aux familles et à l'école. Les opérateurs doivent aussi y contribuer.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Je vous demanderai de bien vouloir retirer cet amendement car il est trop imprécis. On ne sait pas ce que recouvrent les termes « dispositifs de prévention » ou « conséquences sur les victimes ». Il faut savoir ce que nous pouvons demander comme obligations de moyens aux plateformes. Elles s'exposent en cas de manquement, nous le savons, à des sanctions pouvant aller jusqu'à 4 % de leur chiffre d'affaires.

Photo issue du site de l'Assemblée nationale ou de WikipediaCécile Untermaier :

Cet amendement vise à intégrer dans le champ des missions du CSA le contrôle de la mise en oeuvre des moyens technologiques et humains par les opérateurs visés par l'article 1er. L'effectivité des dispositions du texte découle en effet des moyens mis en oeuvre par ces plateformes.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Je comprends le sens de votre amendement. Il est satisfait puisque nous avons inclus dans les obligations de moyens qui incombent aux plateformes l'obligation de mettre en oeuvre les moyens humains ou technologiques pour traiter les signalements. Par ailleurs, nous venons de préciser que le CSA doit veiller à la bonne application de ces dispositions.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaure de La Raudière :

Nous proposons de donner au CSA des pouvoirs d'enquête et d'audit nécessaires à l'exercice de ses missions auprès des opérateurs de plateformes.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Votre amendement m'a permis d'identifier une lacune. Le CSA dispose déjà de pouvoirs d'enquête au titre de l'article 19 de la loi de 1986 mais ce dernier n'intègre pas les plateformes. Une mise à niveau serait donc nécessaire. C'est en ce sens qu'il faudrait proposer une modification en séance, madame de La Raudière.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Nous laissons le pouvoir de sanction des contenus illicites au juge judiciaire. Je vous renvoie à l'article 1er : nous avons créé un délit pour sanctionner les plateformes qui ne retirent pas les contenus manifestement haineux sous vingt-quatre heures. Le CSA est doté d'un pouvoir de supervision générale qui porte sur l'accompagnement dans la mise en oeuvre de l'obligation de retrait, le contrôle des obligations de moyens et du comportement des plateformes. Seule l'autorité judiciaire peut rentrer dans une approche au cas par cas et statuer sur les relations entr...

Photo issue du site de l'Assemblée nationale ou de WikipediaFabienne Colboc, rapporteure pour avis :

Le présent amendement vise à établir un lien plus clair entre la transmission d'informations régulières de la part des plateformes au CSA et les recommandations que ce dernier peut prendre dans le domaine de la lutte contre les contenus haineux. Je sais que cet ajout n'est pas compatible avec les amendements qui viennent d'être adoptés mais il me paraît important d'obliger les plateformes à transmettre régulièrement des informations.

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Votre amendement établit un lien direct entre informations transmises par les plateformes et recommandations. Or le CSA peut en émettre sans se fonder sur cette base. Je vous demande de bien vouloir retirer cet amendement.

Photo issue du site de l'Assemblée nationale ou de WikipediaFrédéric Reiss :

L'accent mis sur les bonnes pratiques et les lignes directrices va dans le bon sens. Il satisfera ceux qui insistent sur le travail de prévention que doivent aussi mener les plateformes. Ces nouvelles tâches entraîneront pour le CSA, qui oeuvre avant tout dans le domaine audiovisuel, beaucoup de travail supplémentaire. Il devra mobiliser des moyens financiers supplémentaires. Comment cela va-t-il se traduire dans la prochaine loi de finances ?

Photo issue du site de l'Assemblée nationale ou de WikipediaLaetitia Avia, rapporteure :

Dans le dispositif actuellement prévu, les opérateurs font l'objet d'une mise en demeure s'ils n'exécutent pas les recommandations du CSA. Il n'est pas prévu de dispositif d'astreinte. Le système est déjà assez lourd et dissuasif car si les plateformes ne s'exécutent pas dans le délai imparti, elles s'exposent à une sanction pouvant aller jusqu'à 4 % de leur chiffre d'affaires mondial. Avis défavorable.