Très peu de technologies sont intrinsèquement négatives. Je pourrais citer par exemple les technologies de deepfake qui permettent de déshabiller des individus de manière à les gêner voire à faire pression sur eux ou à les menacer.
Les algorithmes de reconnaissance faciale peuvent être sujets, comme ils l'ont été souvent aux États-Unis, à des discriminations et donc favorisent une reconnaissance efficace des Caucasiens, c'est-à-dire des blancs, à la différence des Noirs ou des Afro-américains, où l'on a eu des cas d'arrestations à cause d'une reconnaissance faciale erronée.
Tout dépend de la manière dont ces technologies sont conçues. Je parlais tout à l‘heure des systèmes bancaires. Apple, qui est devenue une banque en s'alliant avec Goldman Sachs, a mis en place des systèmes de crédit. Quelqu'un a remarqué qu'à revenu égal, une femme avait une espérance de crédit dix fois inférieure à un homme sur la plateforme d'Apple. L'on s'est rendu compte qu'il existait un biais, une discrimination algorithmique au sein de la plateforme. Cela a même été confirmé par le cofondateur d'Apple, Steve Wozniak.
Je crois que les technologies, y compris les technologies de reconnaissance faciale, mais aussi l'ensemble des technologies militaires (je rappelais les liens historiques entre la Silicon Valley et les financements militaires : beaucoup de projets initiaux de la Silicon Valley ont été à orientation militaire dans pratiquement tous les secteurs) peuvent être utilisées à bon ou à mauvais escient.
Comment ces technologies interviennent-elles dans le champ social ? Voilà ce qui me préoccupe. Va-t-on vers Minority Report avec une reconnaissance faciale généralisée, avec des risques de contrôle qui s'étendent au-delà du raisonnable ? C'est tout le débat. Que ces technologies puissent être utiles ou utilisables, bien sûr. Qu'elles doivent être généralisées au point que l'on rentre dans un système de surveillance totale comme c'est le cas en Chine, non. L'une des sociétés les plus valorisées dans le domaine de l'intelligence artificielle en Chine est justement une société sur la reconnaissance faciale, dont le principal client est le gouvernement chinois. Quelles limites donnons-nous à ces acteurs ? Quel modèle économique développe-t-on à partir de ces technologies ? Est-ce un modèle de surveillance absolue ? D'après le Financial Times qui a mené une enquête, certains data brokers réunissent déjà plusieurs centaines de millions de profils différents et plusieurs dizaines de milliers de paramètres par individu. Je pense qu'il est des modèles économiques qui sont toxiques. Avec l'affaire Cambridge Analytica, on a vu comment une frange de l'électorat était capable de basculer avec des campagnes de manipulation de masse hyper individualisée.
Il ne faut pas considérer qu'une technologie est mauvaise en elle-même sauf rares exceptions, mais considérer qu'une technologie doit être utilisée en ayant conscience de ce qu'elle peut générer. Quand on fait des tests génétiques massifs, on sait très bien que cela peut générer d'autres formes de surveillance encore plus inquiétantes. Quand on fait de la reconnaissance faciale à raison de plusieurs centaines de millions de caméras sur le territoire chinois par exemple, on sait très bien que cela correspond à une forme de dictature numérique, avec l'autosurveillance des individus et l'autocensure des individus, la surveillance par l'État, l'ensemble étant mis en œuvre avec des systèmes de reconnaissance faciale aussi. Là encore, c'est dans la manière dont ces technologies seront déployées que risquent de se trouver des problèmes ou des questions politiques et philosophiques sur le devenir de nos sociétés.