Sécurité globale — Texte n° 3527

Sous-Amendement N° 1360 à l'amendement N° 943 (Rejeté)

Publié le 19 novembre 2020 par : M. Bernalicis, Mme Autain, M. Coquerel, M. Corbière, Mme Fiat, M. Lachaud, M. Larive, M. Mélenchon, Mme Obono, Mme Panot, M. Prud'homme, M. Quatennens, M. Ratenon, Mme Ressiguier, Mme Rubin, M. Ruffin, Mme Taurine.

Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia 
Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia Photo issue du site de l'Assemblée nationale ou de Wikipedia 

Texte de loi N° 3527

Article 22 (consulter les débats)

À l’alinéa 2, après le mot :

« objet »,

insérer les mots :

« , ni en temps réel, nia posteriori ».

Exposé sommaire :

Par ce sous-amendement, le groupe parlementaire de la France insoumise souhaite rappeler son opposition à la reconnaissance faciale, qui est rendue possible par cet article 22.

Nous avions déposé un amendement visant à interdire tout usage des technologies de reconnaissance faciale dans les espaces et établissements publics sur le territoire français, qui, comme nombreuses de nos propositions de bon sens, est irrecevable et ne pourra être discuté.

Nous rappelons que surenchère technologique va de paire avec le capitalisme de surveillance qui entraîne notamment la généralisation progressive de l’usage des technologies de reconnaissance faciale. En Allemagne, le projet d’instaurer la reconnaissance faciale automatique dans 134 gares et 14 aéroports est en cours d’élaboration ; en France le projet « Safe City » vise à implanter cette technologie dans le quartier de La Défense. En région Provence-Alpes-Côte-d’Azur, deux lycées publics ont failli accueillir cette technologie à l’entrée de l’établissement afin de permettre l’accès aux élèves. A Valenciennes, Huawei offre son système de vidéosurveillance pour mieux implanter et tester son système sur les Français.

Pourtant, les débats suscités par cette technologie ne font que grandir : en janvier 2020, la prépublication du livre blanc sur l’intelligence artificielle de la Commission européenne envisageait la mise en place d’une interdiction temporaire des technologies de reconnaissance faciale dans divers secteurs. La Datainspektionen, autorité de contrôle et de protection de l'informatique et des libertés de la Suède, a infligé une amende de 18 500 euros (200 000 SEK) à un établissement scolaire qui a tenté d’utiliser cette technologie en remplacement du système d’appel des élèves. Au premier semestre 2020, on apprenait que l'entreprise américaine ClearView avait directement collecté sur internet les photos laissées par les internautes pour entraîner ses algorithmes de reconnaissance faciale et fournir son service aux services de police ou directement aux policiers quand les services refusaient de souscrire à leur offre.

C'est pourquoi la reconnaissance faciale ne doit pas être considérée comme une technologie d'identification biométrique comme les autres. Dans notre vie sociale, nous ne cachons pas notre visage qui est un signal permanent envoyé lors d'évènements, sur les réseaux sociaux, les médias en ligne, et à l'occasion d'événements divers de notre vie sociale. Le RGPD garantit aux citoyen.ne.s européen.ne.s « le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage » (Art. 22), selon la définition du profilage inscrite dans l’article 4. L’usage de la reconnaissance faciale, notamment de façon automatisée, entre en contradiction avec l’article 5 du RPGD (principes de licéité, loyauté, transparence). Parce que la reconnaissance faciale appartient à la catégorie plus large des techniques biométriques, elle entre également en contradiction avec l’article 9 interdisant « le traitement des données biométriques aux fins d’identifier une personne physique de manière unique ».

En outre, et parce que la reconnaissance faciale repose sur des estimations statistiques de correspondance entre les éléments comparés, cette technologie est de facto faillible et renferme des biais importants. La question du coût pour les acteurs publics et privés, de l’implémentation des technologies de reconnaissance (de l’installation des équipements/infrastructures aux serveurs, stockage et puissances de calcul, en passant par les coûts logiciels, de maintenant et d’évolutivité) est encore mal connue et demande des rapports d’évaluation précis dans un marché mondial de la biométrie qui pourrait avoir un poids de plus de 24,8 milliards de dollars en 2021 (agence Markets & Markets, 2016). En tout état de cause, l’implémentation de plus en plus massive des technologies de reconnaissance faciale dans les espaces et établissements publics génère des risques pour la sécurité personnelle, la vie privée, les libertés individuelles et collectives et la protection des données personnelles majeures. Sous motifs impérieux de « sécurité », la stratégie du choc déjà à l’œuvre durant le premier confinement avec le déploiement de drones continue.

Aucun commentaire n'a encore été formulé sur cet amendement.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.