. Notre groupe partage les conclusions de votre rapport, reflet d'un travail transpartisan, sur un sujet qui est apparu majeur pendant la crise sanitaire. Je suis sensible à vos propositions relatives à la sécurité et à santé au travail, d'autant plus que nous allons examiner une proposition de loi relative au renforcement de la santé au travail, portée par nos collègues Charlotte Lecoq et Carole Grandjean. Nous pourrions nous inspirer de ces travaux pour voir comment, au niveau européen, nous pouvons porter des améliorations. La nature transfrontalière et immatérielle de ces plateformes appelle en effet à une réponse européenne coordonnée.
Afin de garantir une protection sociale efficace aux travailleurs des plateformes, le renforcement de la transparence des algorithmes est une condition indispensable pour permettre aux travailleurs de pouvoir se défendre en cas de litige, mais aussi pour éviter les éventuels biais et effets de discrimination. Les données de ces plateformes font pourtant l'objet d'une grande opacité. Afin de faire valoir les droits de ces travailleurs, il faudrait leur donner accès à ces informations, notamment les critères de notations et l'impact de ces notes sur les mises en relation avec les clients. Ces outils de contrôle engendrent le risque, pour les travailleurs, de devenir l'exécutant d'un robot et de ces algorithmes. Vous proposez donc de travailler à des règles qui permettent de limiter les risques de ce management algorithmique.
Vous mentionnez la création d'un mécanisme d'audit permettant à des autorités indépendantes de vérifier la construction de ces algorithmes et leur mise en œuvre. Pouvez-vous nous en dire plus sur les modalités de sa mise en œuvre concrète ?