J'ouvre une parenthèse sur la procédure Parcoursup, qui souffre encore de zones d'incertitude concernant certains critères retenus dans les algorithmes locaux utilisés par les universités accueillantes. Le Conseil constitutionnel a pris, le 3 avril dernier, une décision intéressante qui prévoit que, malgré que le secret des délibérations des jurys introduit dans la loi, il y a une possibilité de rendre transparents a posteriori les critères retenus, non seulement pour les requérants mécontents de la procédure, mais également pour tout un chacun. N'est‑ce pas une manière d'introduire l'idée que les critères de l'algorithme local pourraient être connus avant sa mise en œuvre ?
Ces questions concernent beaucoup de domaines de notre vie publique. Chaque fois, on constate les biais discriminatoires des algorithmes : le mécanisme mathématique qui semble initialement garantir la neutralité aboutit à un résultat biaisé, toujours au détriment des mêmes populations. On a l'impression que, dans la réalité, les algorithmes sous-représentent une partie de la population. Ce n'est probablement pas le cas – on ne sait pas ce qu'ils ont « dans le ventre » –, mais l'effet reste le même. C'est une question classique en droit de la discrimination : un critère neutre peut conduire à une situation de discrimination. C'est ce que l'on appelle une discrimination indirecte.