Intervention de Roch-Olivier Maistre

Réunion du mardi 3 novembre 2020 à 17h00
Mission d'information sur l'émergence et l'évolution des différentes formes de racisme et les réponses à y apporter

Roch-Olivier Maistre, président du Conseil supérieur de l'audiovisuel (CSA) :

Je vous confirme que les signalements citoyens sont importants et quotidiens. En 2019, nous avons dû être saisis près de 70 000 fois.

Nous constatons souvent une corrélation entre l'activité sur les réseaux sociaux et les saisines du CSA. Toutes les saisines sont instruites. Le CSA visionne toujours la séquence concernée dans son ensemble car la saisine peut être biaisée. Une analyse juridique très fine est ensuite menée, à la lumière de trente années de jurisprudence. Enfin, toutes les décisions sont délibérées collégialement.

Le nombre de saisines n'est pas le seul guide pour une intervention. Il peut en effet y avoir des phénomènes d'instrumentalisation. Nous avons pu constater que sur certaines thématiques, certains groupes organisés ou communautés interviennent systématiquement. Il est donc du rôle du régulateur de prendre le recul nécessaire.

Concernant d'éventuels « professionnels » de la saisine, tout un réseau institutionnel revient régulièrement sur certaines thématiques. Ainsi par exemple sur les contenus racistes ou homophobes, les grandes associations n'hésitent pas à nous interpeller et à nous saisir.

Au sujet d'un excès de régulation qui provoquerait l'évasion des jeunes, il faut effectivement reconnaître que l'audience de la télévision vieillit. Les pratiques sont devenues beaucoup plus individualistes, avec désormais près de six écrans accessibles par foyer. Est-ce pour autant lié exclusivement à l'excès de régulation ? Je ne le crois pas. Cette évasion des jeunes s'explique aussi par des formats nouveaux très adaptés à l'univers numérique (comme Youtube) ainsi que par les fonctions de messagerie.

Par ailleurs, ce qui n'est plus admis sur les médias traditionnels l'est de moins en moins dans l'univers numérique. Nous sommes de plus en plus conscients des dégâts de la désinformation et de la haine en ligne. Dans de nombreux pays en Europe et aux États-Unis, mais aussi en Afrique et dans le continent océanien, les opinions publiques aspirent à la correction des excès des grandes plateformes. Elles ne les supportent plus et demandent une modération.

Les plateformes ont d'ailleurs bien compris que si elles n'évoluaient pas pour éliminer ces contenus, leur modèle d'affaires reposant sur la publicité s'en trouverait fragilisé. Je crois cependant qu'il n'est pas possible de laisser ces plateformes réguler elles-mêmes leurs contenus. Dans une démocratie, il ne va pas de soi qu'un opérateur privé décide de ce qui doit être publié. L'autorégulation ne suffit pas, il faut qu'une norme soit posée et qu'un régulateur externe intervienne pour s'assurer de sa mise en œuvre.

Concernant les structures de modération existantes, nous nous sommes aperçus dans la première phase de la pandémie qu'une grande partie de la régulation en matière de santé était faite par des outils d'intelligence artificielle. S'il existe bien une modération humaine, elle est très inégale selon les plateformes. Ainsi, la réactivité de Twitter apparaît bien moindre que celle de Facebook.

Concernant les sanctions du CSA à l'égard des médias traditionnels, elles interviennent après qu'un manquement se reproduit à la suite d'une mise en demeure. Ces sanctions peuvent être financières (jusqu'à 4 % du chiffre d'affaires en cas de récidive) mais le CSA peut aussi décider d'interrompre la diffusion d'un programme, temporairement ou plus durablement. L'autorisation d'un éditeur peut également être réduite, voire supprimée.

À propos des plateformes, la loi dite « loi Avia » prévoyait un scénario de sanctions pouvant atteindre jusqu'à 4 % du chiffre d'affaires mondial, ce qui était très dissuasif.

Au sujet de la loi dite « loi Avia », nous ne voulions pas être attirés sur le contrôle des contenus. Le CSA n'en a pas les moyens. C'est la raison pour laquelle nous insistons sur ce nouveau principe de régulation qui consiste à imposer des obligations de moyens à ces plateformes. Il leur appartient de s'organiser pour éliminer ces contenus et c'est à nous, superviseur, de nous assurer qu'elles déploient les moyens nécessaires.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.