L'amendement tend à élargir au secteur privé les garanties d'information et de transparence que la loi Lemaire pour une République numérique a établies pour le secteur public. Reste à savoir comment monter ce dispositif. Selon l'article 22 du RGPD, une personne a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, sauf dans trois cas : dans le cadre d'un consentement, d'un contrat ou d'une décision administrative individuelle automatisée, que nous venons d'évoquer.
Dans les deux premiers cas, je souhaite ouvrir la possibilité d'appliquer les règles de transparence qui définissent le traitement automatisé, ainsi que les principales caractéristiques de sa mise en oeuvre. La décision s'appliquerait aux algorithmes traitant le taux de solvabilité quand on veut contracter une assurance ou un crédit, à ceux utilisés sur les plates-formes ou les réseaux sociaux afin de lutter contre les fake news, ou qui permettent de fermer les comptes diffusant des propos considérés comme déviants. Dans ce cas, les personnes pourraient demander aux plates-formes comment et selon quels critères les décisions ont été prises. Ce serait un premier pas vers une transparence des algorithmes dans le secteur privé.