Nous vous avons interpellés à plusieurs reprises au sujet des algorithmes. Nous pouvons certes demander aux plateformes de nous les transmettre, mais encore faut-il être capable de les traiter. Or, de l'avis même des structures indépendantes que nous avons citées, celles-ci n'ont pas les capacités techniques et humaines d'exploiter ces algorithmes. Au reste, les plateformes elles-mêmes ne connaissent pas toujours les effets produits par leurs algorithmes, et font appel à d'autres experts pour les identifier. Twitter a mandaté un cabinet à cet effet, et a eu l'audace d'en publier les résultats. Pour le reste, il faut attendre l'intervention de lanceurs d'alerte, comme Frances Haugen, pour lever le voile. Ce n'est ni la CNIL, ni l'ARCOM qui a lancé l'alerte et démontré que les algorithmes de Facebook favorisaient les messages haineux – les messages d'extrême droite, en réalité – parce qu'ils avaient davantage d'audience ! Comme seule mesure correctrice, Facebook a dégradé, dans ses algorithmes, la visibilité de tous les contenus politiques, quels qu'ils soient.
Cette mission doit être suffisamment explicite, de manière à y consacrer les moyens nécessaires. Cela aurait déjà pu être fait, mais vous ne le faites pas. Si vous aviez vraiment pour ambition de préserver les libertés fondamentales et de lutter contre les contenus haineux en ligne, vous exigeriez des plateformes qu'elles instaurent l'interopérabilité des données afin de résoudre cette équation en partie et de mieux contrôler les dispositifs algorithmiques qu'elles utilisent.