Capturer notre visage nous déshabille

2 septembre 2022
par Raphaël Duboisdenghien
Temps de lecture : 4 minutes
“Le visage capturé”, par Nathalie Grandjean. Presses universitaires de Louvain. VP 11,50 euros, VN 8 euros

Oratrice aux conférences grand public des Matins Philo au théâtre du Vaudeville à Bruxelles, la philosophe Nathalie Grandjean publie «Le visage capturé» aux Presses universitaires de Louvain.

«Mon idée première partait d’une certaine urgence», raconte la chargée de recherches au Fonds de la recherche scientifique à l’Université Saint-Louis Bruxelles. «Je voulais écrire depuis longtemps sur la reconnaissance faciale et sur les « deepfakes » (hypertrucages utilisant l’intelligence artificielle). Afin de montrer à quel point ces dispositifs de capture des visages, qui se présentent comme peu invasifs, comportent cependant des dangers pour nos libertés en démocratie. Marchandisation des traits du visage. Disparition de l’anonymat. Atteintes à la vie privée. Profilage. Surveillance intégrale.»

«De plus, ces dispositifs sont le plus souvent des boîtes noires», ajoute la spécialiste en éthique numérique et de la surveillance. «Fonctionnant à partir de critères opaques et embarquant des biais discriminatoires. Le plus souvent sexistes et racistes.»

«J’ai diagnostiqué un autre mode numérique de capture de nos visages. L’expérience subie et continue des visioconférences, qu’une partie d’entre nous vit collectivement depuis mars 2020, début de la pandémie de COVID-19.»

Dès les années 2000

Comme d’autres dispositifs biométriques, la reconnaissance des visages et des émotions faciales émerge au début des années 2000. La destruction des tours jumelles du World Trade Center à New York, le 11 septembre 2001, justifie la création et la production de ces technologies pour lutter contre le terrorisme.

«Ces dispositifs permettent plusieurs opérations grâce à l’automatisation de l’identification de points précis», explique Nathalie Grandjean. «Distinguer un visage humain dans un flux d’images vidéo. Identifier le visage d’une personne en particulier, en la distinguant parmi d’autres individus ou dans une base de données. Authentifier une personne, en vérifiant qu’elle est bien celle qu’elle prétend être. Ou encore, reconnaître des expressions d’émotions, par une analyse automatisée des mouvements des traits du visage.»

Ces procédés se sont rapidement popularisés. Les tags, ces signes codés, permettent, par exemple, d’identifier les personnes sur des réseaux sociaux. De relier des photos à leur profil.

Une technologie silencieuse

De nombreuses recherches en sciences humaines et sociales soulignent les enjeux éthiques, sociaux et politiques de la reconnaissance faciale.

Selon la docteure en philosophie, «le premier danger réside dans le fait que la reconnaissance faciale est une technologie silencieuse. Impossible à détecter par ceux qui en sont sujets, car elle est intégrée dans les caméras de surveillance. Cette opération est totalement obscure. Fermée à toute possibilité de contestation.»

«L’identité narrative, si déterminante pour déclarer qui l’on est, d’où l’on vient, où l’on réside, devient secondaire dans la construction générale de nos subjectivités politiques. Bien loin d’être neutres, les dispositifs de reconnaissance faciale embarquent une micropolitique basée sur un récit de l’authenticité de la matière des corps. Derrière cette numérisation de l’authenticité se raconte en réalité la fiction d’un corps-matière pur. Détaché des incertitudes, des subjectivités. Comme étant le meilleur accès à la vérité de surveillance généralisée.»

Pour nourrir les bases de données des dispositifs de vidéosurveillance, les traits des visages sont marchandisés. «Faisant disparaître peu à peu l’anonymat et la vie privée et érigeant peu à peu une société de profilage et de surveillance généralisée», observe Nathalie Grandjean.

Sexualité et orientation politique sont identifiées

Le psychologue Michal Kosinski, professeur associé en comportement organisationnel à la Stanford Graduate School of Business en Californie, affirme que son intelligence artificielle de reconnaissance faciale est capable d’identifier sexualité et orientation politique. Rien qu’en regardant notre visage.

Les dispositifs de reconnaissance permettent aussi de distinguer les émotions en temps réel. D’exprimer en pourcentages, joie, tristesse, colère, dégoût, surprise et peur.

«Notre inquiétude est amplifiée, car le visage des individus est le plus souvent capté sans leur consentement préalable», note la chercheuse. «Ce qui rend la reconnaissance faciale des émotions invasive, tant dans sa conception que son utilisation.»

«L’opacité et l’invasivité d’une technologie construite à partir d’un modèle réductionniste pèsent comme des menaces sur la dynamique des interactions individuelles et collectives. Pensant tirer une vérité sur leurs sentiments à partir des micro-expressions, volontaires ou involontaires, des émotions qui traversent leurs visages.»

Haut depage