Donc, cet article lui cause un préjudice, puisqu'il passe pour un député qui se fait recadrer par le Premier ministre. En visant les « cas litigieux pouvant causer un dommage », vous lancez en réalité un processus sans fin. Il y a évidemment des attaques directes et de la désinformation réelle, mais il peut aussi y avoir des erreurs ou tout simplement un contenu qui ne me plaît pas et que je souhaite donc voir retirer, par exemple une vidéo me montrant en train de faire le clown lorsque j'avais sept ans. Il faut véritablement se poser la question : à quel moment bascule-t-on dans le traitement subjectif ?
Par ailleurs, monsieur le rapporteur, vous avez estimé que ce dispositif obligerait les plateformes à pratiquer une forme de « censure préventive ». J'aimerais savoir ce que vous entendez par là. Cela signifie-t-il que l'on risque d'assécher le flux d'informations en ne gardant que celles qui sont labellisées ? Tant qu'elle n'a pas reçu d'alerte de la part d'un citoyen, une plateforme ne peut pas savoir à l'avance si un contenu est susceptible de causer un dommage. Comment pourrait-elle, dès lors, s'autocensurer ? Sur le fondement de quels critères objectifs un tri peut-il être opéré ?
Le 07/07/2018 à 08:43, Laïc1 a dit :
" à quel moment bascule-t-on dans le traitement subjectif ?"
Est subjectif tout ce qui ne corrobore pas la subjectivité du pouvoir...
Vous trouvez ce commentaire constructif : non neutre oui