Sur la question des juges des référés, j'avoue ne pas pouvoir apporter une réponse suffisamment précise d'un point de vue juridique.
Il me semble prématuré de légiférer sur le contenu diffusé en direct, pour deux raisons. D'abord, le problème ne réside pas tant dans la diffusion en direct que dans le caractère viral du contenu. À Christchurch, l'assassin a diffusé la tuerie pendant quatorze minutes, vidéo qui a été vue en direct par 4 000 personnes ; mais le problème principal tient au fait que, dans les 24 heures suivantes, Facebook a dû retirer 1,5 million de copies de cette vidéo. Cependant il est vrai que la conservation des contenus pose un véritable problème, car certains peuvent disparaître sans avoir été sanctionnés. Les contenus, qu'ils aient été refusés par la modération ou publiés, doivent être conservés par les plateformes pour permettre à la justice de faire son travail, sous la supervision du régulateur et de la CNIL pour que l'on ne porte pas atteinte à la vie privée.
La modération préalable par les plateformes fera l'objet de la supervision par le régulateur dans le cadre de la proposition de loi de Mme Avia. Le régulateur jugera du bon équilibre de la politique de la modération de la plateforme. Tout le problème est de mettre en place un régulateur qui soit techniquement compétent et juridiquement habilité.
Madame Pau-Langevin, la loi du 7 octobre 2016 pour une République numérique dispose que la plateforme a l'obligation de retirer promptement des contenus manifestement illicites. Ce qu'il faut entendre par « promptement » n'est pas précisé, et la loi ne définit aucune obligation de moyens. Les sanctions ne sont pas dissuasives et elles ne sont pas appliquées. Dans les faits, la loi existante n'a aucun effet sur la publication des contenus.
La loi allemande oblige les plateformes à retirer en un temps très court les contenus, sous peine de sanctions pour chaque contenu diffusé. Les départements juridiques américains refusent alors de prendre le moindre risque d'être condamnés et pratiquent des retraits massifs. Les délais pour que soit rendue une décision de justice sont tels que les contenus qui sont finalement publiés le sont à contretemps. Il faut trouver le chemin de crête qui assure l'équilibre entre liberté d'expression et protection des citoyens.
Monsieur Latombe, ce sont effectivement les conditions générales d'utilisation qui priment aujourd'hui. Il est vrai que L'Origine du monde a été retirée parce qu'elle ne correspondait pas à ces conditions ; je ne pense pas que les caricatures de Charlie Hebdo le soient pour les mêmes raisons, mais je suis certain qu'elles seraient censurées si nous mettions en place un système comparable au système allemand.
Il est difficile de modifier ces conditions en fonction des différentes cultures nationales, car on considère aux États-Unis, entre autres, que, puisque ces plateformes appartiennent à la sphère privée, personne n'est obligé de les utiliser, et que si quelqu'un choisit de le faire, il doit respecter les conditions générales d'utilisation .
Nous sommes tous confrontés à de très grandes difficultés de jugement sur des contenus particuliers. Si l'on veut que les plateformes appliquent efficacement la loi, il faut instituer une zone d'échanges entre les plateformes, l'administration, la justice et probablement des acteurs privés de la société civile qui donnent un avis sur le caractère licite ou non d'un contenu. Il ne nous paraît pas souhaitable que ce soient les plateformes qui décident de ce qui est légal ou illégal. Nous devons répondre à leur besoin de se tourner vers une instance qui détermine ce qui est licite, instance dont nous pensons qu'elle doit être un cénacle constitué par l'État et la société civile, conçu en relation très étroite avec le régulateur. Un tel dispositif est déjà en place pour le terrorisme.