Imaginons que vous ayez raison et que ce texte soit, en effet, parfaitement rédigé – ce que je ne pense pas. La question de son effectivité et de son application concrète se pose tout de même.
En l'état du droit, il n'est pas permis de mettre en scène le meurtre d'un député ou d'appeler à le tuer avec une arme à la main. Pourtant, un tel contenu n'est pas censuré par les plateformes. En l'état du droit, rien n'incite à censurer l'intervention d'un député à la tribune de l'Assemblée, et pourtant, c'est ce que fait l'algorithme.
Ce que Frances Haugen nous a expliqué, c'est que même si ceux qui les créent sont animés des meilleures intentions, ces algorithmes ont un effet pervers que nous n'arrivons pas à contrôler. La massification des données fait que, même avec un texte génial, nous retomberons dans les mêmes travers si nous ne nous en remettons pas à une autorité judiciaire indépendante. La liberté d'expression ne sera pas respectée, dans bien des cas, et des contenus seront supprimés sans raison : je suis certain que nous le constaterons ensemble.
La philosophie du texte pousse les plateformes à utiliser le filet dérivant le plus large possible. En effet, elles risquent davantage d'être sanctionnées si elles n'ont pas supprimé un contenu à caractère terroriste, que si elles ont censuré un contenu qui n'aurait pas dû l'être. Voilà pourquoi, sur le fond, sur la forme et en droit, nous avons la conviction que ce texte ne doit pas être appliqué. Notre droit nous permet déjà, pour peu qu'on y mette les moyens – notamment humains – de retirer les contenus à caractère terroriste, tout en garantissant la liberté d'expression.