Cet amendement vise à éviter que les algorithmes utilisés par les plateformes aient pour conséquence de perpétuer, de produire ou de renforcer des préjugés justifiant et instituant des discriminations entre les personnes en raison de ce qu'elles sont.
Nous savons que les grandes plateformes produisent des biais algorithmiques, qui ont fait l'objet de plusieurs études. Pensons aux analyses de Cathy O'Neil dans son ouvrage Weapons of Math Destruction, dont l'édition française Algorithmes, la bombe à retardement a été préfacée par notre collègue Cédric Villani. Elle y démontre que derrière l'objectivité et la neutralité proclamée des algorithmes se cachent les opinions et les intérêts subjectifs des personnes qui les créent ou qui les utilisent.
Si l'on cherche sur de grands moteurs de recherche les termes « jeune noire », « jeune asiatique » ou « jeune arabe », les premières propositions renvoient à des sites pornographiques tout comme pour le mot « lesbienne ». Certaines associations ont fait récemment campagne pour que ces biais soient corrigés afin d'éviter la perpétuation de stéréotypes et de discriminations.
Ces biais ont des conséquences concrètes. Il a été révélé qu'un système de tri de curriculum vitae (CV) au profit d'entreprises proposé par Amazon pénalisait les CV contenant le mot « femme », soit en les mettant de côté, soit en proposant des salaires plus bas pour elles.
Les preuves s'accumulent et nous voulons obliger les plateformes à rendre publics les moyens qu'elles mettent en oeuvre pour que leurs algorithmes ne discriminent plus.