Reprenons la discussion là où nous l'avons laissée à l'instant. Vous ne voyez pas le lien entre la politique que vous avez conduite et les algorithmes qui se déploient sur les plateformes. Le mode de fonctionnement actuel prévoit des injonctions qui peuvent être bien intentionnées et utiles de modération du contenu, mais il se heurte au fait que des masses de données et de messages sont diffusées sur les réseaux sociaux, et que leur quantité est peut-être même exponentielle.
Vous demandez aux plateformes qu'il y ait moins de contenus haineux, donc les plateformes s'organisent. Elles font face à une alternative : confier la modération à des êtres humains ou à des algorithmes. En effet, elles peuvent embaucher des êtres humains pour faire la modération, mais ce choix est coûteux, et par conséquent il ne correspond donc pas à leur objectif de rentabilité : elles veulent collecter le plus de données possible pour les revendre ensuite à d'autres types de prestataires, financiariser les contenus sponsorisés, etc.
Frances Haugen a montré que les algorithmes utilisés par Facebook favorisent les contenus les plus violents, qui ne sont pas nécessairement des contenus illégaux, qui peuvent être à la frontière de la légalité, mais qui, étant violents, haineux, portés à la caricature et à l'outrance, suscitent évidemment plus de réactions négatives et positives. Une étude interne sur Twitter qui a été rendue publique aboutit aux mêmes résultats. Or le Gouvernement a une responsabilité dans cette situation : vous légiférez pour instituer des injonctions sans qu'existe un service public capable de contrôler les algorithmes et sans inscrire dans la loi une obligation de rendre publics et transparents les algorithmes.