Madame la rapporteure, je suis en désaccord avec vous : l'automatisation intégrale de la modération des informations entre bien dans le modèle de Facebook – et d'autres plateformes – , ce qui explique que ses dirigeants développent les algorithmes autoapprenants, investissent massivement dans l'intelligence artificielle et alimentent une base de données servant de référence, laquelle n'est plus limitée à des mots-clés, mais comporte également des expressions. Tout cela vise à rendre la modération des informations 100 % automatique.
Il est donc normal que nous débattions du remplacement de « ou » par « et ». À titre personnel, je préfère le « et », sec, au « ou ». J'admets que la rectification que vous proposez constitue une amélioration, et je la voterai.
J'aurais néanmoins préféré que nous adoptions un « et » simple, afin de réintroduire de l'humain dans la modération des contenus, et d'éviter que celle-ci relève d'une boîte noire qui permettrait un jour aux plateformes de dire qu'elle n'y peuvent plus rien, qu'elle n'ont plus la main en ce domaine, devenu trop complexe car confié à l'intelligence artificielle.
Réintroduire de l'humain permet de responsabiliser les acteurs et de désigner, au besoin, un responsable. Sinon, à un moment donné, on nous opposera que le système – la boîte noire – a pris les décisions et qu'on ne peut rien faire, ce qui n'est pas acceptable. Même dans le numérique, il faut des êtres humains.