Lutte contre la manipulation de l'information — Texte n° 1269

Amendement N° 26 (Adopté)

Publié le 8 octobre 2018 par : Mme Forteza.

Photo issue du site de l'Assemblée nationale ou de Wikipedia 

Rédiger ainsi le début de l'alinéa 4 :

« 2° Les parts d'accès indirects imputables, d'une part, à l'algorithme du moteur de recherche interne de la plateforme le cas échéant, et, d'autre part, aux autres algorithmes de recommandation...(le reste sans changement) ».

Exposé sommaire :

Au cours de la lutte contre les fausses informations, de nombreux acteurs ont constaté que celles-ci sont souvent mises en avant par les algorithmes des plateformes (réseaux sociaux, moteurs de recherche).

A titre d'exemple, un travail a été réalisé par Guillaume Chaslot, ancien ingénieur informatique auprès de YouTube. Dans un article rédigé pour Médium, il détaille ainsi que « plus les gens passent de temps sur ces vidéos, plus elles rapportent des revenus publicitaires à Google. La plupart des plateformes font des choix similaires. Or, ce choix a un effet pervers qui a un impact majeur sur l'information mondiale ».

Autrement dit, les algorithmes déduiraient que les contenus les plus efficaces pour capter l'attention de l'utilisateur sont des contenus polémiques, pas nécessairement vérifiés, aux formats courts et susceptibles de véhiculer des fausses nouvelles, et en proposeraient davantage. Par exemple, l'algorithme de YouTube proposerait plus de contenus affirmant que les Américains n'ont jamais marché sur la Lune plutôt que des documentaires sur le fonctionnement du système solaire, car l'utilisateur y passerait moins de temps. Le site algotransparency (https ://algotransparency.org) illustre l'influence de cette dynamique sur les élections présidentielles française et allemande de 2017.

Face à ces déclarations Google a affirmé que la méthode employée par leur ancien employé n'était pas fiable et donc que leur algorithme n'aurait pas de telle conséquence. Il conviendrait de pouvoir objectiver ce débat, en se basant sur des données à même de nourrir des travaux indépendants menés par des chercheurs, des associations ou des citoyens engagés. En effet, si ce genre d'algorithmes a un effet sur la diffusion de fausses nouvelles, nous devons pouvoir en étudier les biais, pour mieux les contrôler.

D'un point de vue technique, le dispositif part d'un constat : actuellement, des contenus sont proposés en ligne par les plateformes, soit par un accès direct c'est-à-dire grâce à l'URL ou un moteur de recherche extérieur, soit par un accès indirect c'est-à-dire suggéré, recommandé ou mis en avant de façon algorithmique. Connaitre la part de chaque voie d'accès nous permettra de comprendre si un algorithme en particulier est plus ou moins responsable de l'affichage régulier de certains types de contenus qui véhiculent notamment des fausses informations.

Ces statistiques doivent être consultables par tous en ligne et être réutilisables. Il ne s'agit nullement d'accéder au fonctionnement de l'algorithme en lui-même, la publication des effets d'un algorithme ne menant pas à la possibilité de le reproduire. Ainsi, il n'y a pas d'atteinte au secret des affaires et à la liberté d'entreprendre.

L'amendement initial part d'un constat : les contenus sont accessibles soit d'une manière directe, soit d'une manière indirecte. Cet amendement propose une précision sémantique sur la part indirecte par rapport à la version initiale. L'objectif est de distinguer d'une part l'action réalisée par le moteur de recherche interne à la plateforme et les autres mécanismes de recommandation, classement ou référencement.

Aucun commentaire n'a encore été formulé sur cet amendement.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.