16 interventions trouvées.
L'article 14 autorise un recours accru au profilage administratif et à l'utilisation d'algorithmes, notamment par les autorités publiques. Il s'agit de thématiques fondamentales pour les droits et libertés numériques. Aussi estimons-nous que les algorithmes utilisés dans la prise de décision publique doivent être soumis à un contrôle citoyen. Pour éviter les biais discriminants que peuvent introduire de nombreux algorithmes utilisés par les pouvoirs publics, nous considérons qu'un contrôle ci...
Madame Obono, comme souvent, je suis d'accord avec une grande partie de votre argumentaire, mais pas avec votre conclusion ; en l'occurrence, il ne me paraît pas utile d'inscrire ce dispositif dans la loi. Les personnes intéressées peuvent déjà accéder aux codes sources, aux algorithmes et étudier ces derniers dans différents cadres. Par exemple, la CNIL avait réalisé une étude sur APB – admission post-bac. Il serait intéressant que d'autres institutions, comme l'INRIA – Institut national de recherche en informatique et en automatique – , le CNNUM ou des associations le fassent également. Il n'est pas nécessaire, en tout état de cause, d'inscrire cette disposition dans la loi. ...
...eilleures conditions possibles dans l'enseignement supérieur, l'an prochain, les bacheliers qui ont formulé leurs voeux sur la plateforme Parcoursup. Nous ne sommes pas ici aujourd'hui pour débattre de nouveau de la relative à l'orientation et à la réussite des étudiants. Il n'en demeure pas moins qu'elle a constitué une percée majeure et historique en matière de transparence. Avant, avec APB, l'algorithme et le code source n'étaient pas publiés, alors que les associations le réclamaient. Les pouvoirs publics ont été pressés par la commission d'accès aux documents administratifs – la CADA – et la CNIL de les publier, ce qu'ils avaient finalement fait, mais en version papier. Cela montre quel était alors l'engagement des pouvoirs publics pour la transparence des algorithmes. La nouvelle loi prévoit...
...effectuer cette sélection pose question et suscite la contestation, n'en déplaise à M. Gosselin. Ce n'est pas une minorité d'ultra-gauchistes, ou que sais-je encore : ce sont des étudiants, des jeunes gens qui s'inscrivent dans une démarche de compréhension technique, mais aussi d'apprentissage politique de la citoyenneté. Ne vous en déplaise, ils ont très bien compris ce qu'il y avait derrière l'algorithme et ce projet de loi.
L'intelligence artificielle s'invite depuis quelques mois dans les débats, et pour cause : elle est révolutionnaire, car elle est aujourd'hui capable de simuler des décisions de justice. C'est ce qui s'appelle la justice prédictive. Pour y parvenir, des algorithmes permettent d'analyser une très importante quantité de données, qui sont croisées pour apporter des réponses juridiques. L'objectif affiché est simple : désengorger les tribunaux et soulager les magistrats débordés par un nombre d'affaires en constante augmentation, alors que le nombre de juges est insuffisant. D'autres vont même jusqu'à dire que la justice artificielle permet de répondre aux in...
...lles de personnes n'ayant aucune expertise judiciaire, ou très peu. Le profilage est-il envisagé pour la délivrance des titres de séjour aux étrangers ? Pour les demandes d'emploi formulées par des chômeurs ? Pour une demande de permis de construire déposée par un riverain de l'océan ? Les demandeurs seront-ils classés selon leur pays d'origine, leur âge, leur adresse, leur cursus scolaire ? Les algorithmes autorisés par cet article ne permettront-ils de présélectionner – c'est-à-dire de discriminer, ou de renforcer des discriminations ? Attention à ne pas ouvrir la boîte de Pandore : les dossiers doivent être analysés de façon individuelle par des êtres humains. Rappelons qu'à l'heure actuelle, le défaut d'examen individuel et personnalisé est considéré par les juges comme une erreur de droit. Le...
Nous demandons nous aussi la suppression de cet article qui ouvre plus largement la possibilité, pour l'administration, de recourir à des décisions automatisées prises sur le fondement d'un algorithme, dans le champ des décisions administratives individuelles. Les garanties offertes en contrepartie en matière d'information pleine et entière des personnes, de maîtrise des traitements, de droit au recours et de données traitées – à l'exception, dans ce cadre, des données dites « sensibles » – ne sont pas suffisantes au regard des risques qui pèsent sur les droits et libertés des personnes concer...
Je rappelle tout d'abord qu'il est interdit de fonder des décisions de justice sur l'utilisation d'un algorithme ; cela était vrai avant le RGPD, cela sera toujours vrai après. Il me semble que la suppression complète des décisions administratives individuelles automatisées serait un peu excessive. Nous devons aussi travailler sur la simplification et la modernisation de l'administration. Les citoyens ont de grandes attentes en la matière, ils sont de plus en plus exigeants : ils veulent des services publi...
Or nous avons besoin pour cela de pouvoir utiliser des algorithmes. Ceci dit, des garanties suffisantes sont mises en place. Nous avons déjà parlé des garanties d'information, de transparence, de communication ; le RGPD prévoit aussi des voies de recours. Enfin, il est prévu que les algorithmes doivent rester maîtrisables par des humains. Ces algorithmes ne seront pas des boîtes noires : ce n'est pas de l'intelligence artificielle. Nous saurons toujours commen...
Vous nous dites que la manière dont sont construits les algorithmes est publique et que la « société civile des experts » va pouvoir regarder cela de plus près, et pourquoi pas lancer l'alerte. Ce serait merveilleux s'il existait un statut du lanceur d'alerte – je vous renvoie ici aux amendements que La France insoumise a déposés et qui ont été rejetés. Ce n'est donc pas à l'ordre du jour. Il faudrait aussi que les gens qui détecteraient un problème aient la ca...
...y a plus d'agents dans les préfectures. Tous ceux que je rencontre demandent qu'on réintroduise de l'humain dans les relations entre les administrations et les administrés ; j'entends davantage cela qu'une aspiration à l'automatisation. Il aurait été utile de suivre la recommandation de la CNIL, qui nous appelle à pousser plus loin la réflexion sur ce sujet avant de légiférer. Je pense à certain algorithme : j'ignore s'il s'agissait d'un algorithme boîte noire ou sous maîtrise humaine, mais ce que je sais, c'est qu'à cause de lui, des milliers de lycéens sont restés sans affectation à la rentrée universitaire. Il s'agit de l'algorithme qui a fait APB
Par ailleurs, l'ouverture du code source du calculateur des impôts a été une expérience très positive, à laquelle la société civile a participé. Elle a vu dans le détail comment les impôts dus par chaque citoyen étaient calculés. Il est donc possible d'auditer ces algorithmes.
Ce débat montre bien à la fois l'inquiétude de certaines populations de nos territoires et la volonté d'aller plus loin de ceux qui se sentent à l'aise avec tout cela. Il faut arriver à concilier ces divers besoins. L'exemple de l'algorithme qui a été utilisé pour l'orientation des étudiants illustre le besoin de transparence, et celle-ci devrait être systématique, avant même qu'on demande quelque explication que ce soit. C'est ainsi qu'on accompagnera et qu'on éduquera la population.
Je viens de comprendre que cette assemblée est un algorithme, puisque tous les amendements des groupes FI ou GDR ont automatiquement droit à un avis défavorable ! Puisque vous dites que les algorithmes vont libérer du temps, monsieur le secrétaire d'État, je propose qu'on vous remplace par un algorithme. Cela nous permettra de gagner du temps dans les débats et cela vous permettra de consacrer du temps à faire de la pédagogie auprès des personnes qui sera...
Si certains amendements ont été rejetés en commission, ce n'est pas la faute d'un algorithme, mais c'est parce que ceux qui devaient les défendre étaient absents.
...lage, sauf dans trois cas : dans le cadre d'un consentement, d'un contrat ou d'une décision administrative individuelle automatisée, que nous venons d'évoquer. Dans les deux premiers cas, je souhaite ouvrir la possibilité d'appliquer les règles de transparence qui définissent le traitement automatisé, ainsi que les principales caractéristiques de sa mise en oeuvre. La décision s'appliquerait aux algorithmes traitant le taux de solvabilité quand on veut contracter une assurance ou un crédit, à ceux utilisés sur les plates-formes ou les réseaux sociaux afin de lutter contre les fake news, ou qui permettent de fermer les comptes diffusant des propos considérés comme déviants. Dans ce cas, les personnes pourraient demander aux plates-formes comment et selon quels critères les décisions ont été prises. ...