La proposition de règlement DSA, qui constitue une réforme de la directive sur le commerce électronique et le statut des intermédiaires techniques, est très intéressante. Tout en maintenant l'acquis communautaire en matière d'intermédiaires techniques (c'est-à-dire le principe d'irresponsabilité pour les hébergeurs et les fournisseurs d'accès à Internet), la proposition pose un cadre juridique, à plusieurs niveaux, en ce qui concerne la modération du contenu. Le texte s'applique aux prestataires de services intermédiaires, puis aux prestataires de services intermédiaires ayant la qualité de plateforme en ligne, puis aux grandes plateformes en ligne, avec des obligations différentes pour chaque sous-qualification.
Le DSA propose d'instituer un régime de modération des contenus par les plateformes en ligne. Son apport est très intéressant puisqu'il vise, à la fois, à lutter contre certains contenus illégaux ou illicites par rapport aux conditions générales d'utilisation des services et à garantir la liberté d'expression. Nous savons que l'équilibre est difficile à trouver. Le DSA propose un mécanisme intéressant, alliant des exigences concernant les notifications et les instructions de communication de données par les autorités compétentes, d'une part, et des mécanismes de recours interne, de règlement des différends, d'évaluation des risques systémiques présentés par les grandes plateformes en ligne quant à la liberté d'expression, d'autre part.
Certains aspects de ce mécanisme peuvent néanmoins poser difficulté. Le premier aspect problématique est politique : la régulation des contenus va d'abord peser sur des acteurs privés, la modération relèvant des plateformes. L'institution d'une autorité de contrôle indépendante – le Conseil supérieur de l'audiovisuel (CSA) pour la France – est une proposition intéressante, mais elle s'inscrit dans une logique de régulation.
Un point technique peut par ailleurs être bloquant : le recours à des traitements automatisés pour procéder à la modération des contenus. Le DSA prévoit une exigence de transparence. La question de la transparence algorithmique soulève une vraie difficulté. Ne faudrait-il pas mettre en place des tests plus poussés des algorithmes dans des situations déterminées, ou par rapport à des types de propos déterminés ? On avance souvent l'idée d'une forme d'analyse d'impact algorithmique, mais il n'est pas certain que cela soit suffisant.
L'internalisation du mécanisme de recours est intéressante – il s'agit d'un mécanisme de règlement interne des différends dans l'hypothèse de suppressions de comptes ou de contenus. Là encore, le règlement interne a vocation à être indépendant, mais relève de la sphère privée. Nous assistons à une forme de marginalisation du juge dans le cas des atteintes à la liberté d'expression et cela peut poser problème. Il est, de plus, proposé de mettre en place un mécanisme de règlement extra-judiciaire des différends, en cas d'insatisfaction quant à la décision de règlement interne adopté. Cet empilement de mécanismes n'est pas forcément satisfaisant et risque d'être très long. Il peut être intéressant de maintenir une procédure judiciaire rapide pour qu'une juridiction se prononce sur un conflit lié à l'absence de modération d'un propos ou à la suppression d'un propos. La marginalisation du juge me surprend, avec la désignation du CSA comme autorité de contrôle. Le recours contre une décision du CSA relève du Conseil d'État et non du juge judiciaire, garant des libertés individuelles. En tant que juriste privatiste, cette décision m'interroge.
Le projet de loi renforçant le respect des principes de la République va à mon sens dans le bon sens, proposant une forme d'introduction anticipée du DSA : il permettra d'expérimenter par avance le système du DSA et de bénéficier d'un retour d'expérience qui pourra être intéressant lors des négociations sur le texte.