X

Recherches fréquentes

La reconnaissance faciale n'est pas une technologie aussi fiable qu'on l'imagine

02 janvier 2020

 

On les croyait infaillibles, plus aguerris que nos cerveaux de simples humains, mais on avait tort: les logiciels de reconnaissance faciale tapent parfois à côté en identifiant les mauvaises personnes. C'est l'inquiétant constat d'une étude rapportée par le Washington Post durant ces fêtes de fin d'année. 

Le National Institute of Standards and Technology, un laboratoire fédéral américain, a en effet convié à ses bancs de test pas loin de 200 programmes parmi les plus utilisés par les entreprises et les services de police et de sécurité. Résultat? Un biais important dans les réponses a été observé chez la plupart des technologies analysées. 

Les hommes mieux cernés

Un manque de précision amenant les personnes afro-américaines et asiatiques à faire cent fois plus l'objet d'erreurs d'identification que les personnes dites caucasiennes. Les individus d'origine amérindienne seraient également parmi les plus mal traités par la reconnaissance faciale, mais ceux d'origine «occidentale» ne sont pas toujours mieux lotis, puisque les femmes et les enfants seraient plus fréquemment victimes de faux positifs ou négatifs que les adultes masculins. 

Pour simplifier, c'est le profil «homme blanc d'âge mûr» qui est le mieux compris par ces logiciels. Pas vraiment un hasard, car c'est justement le profil le plus représenté dans les populations de concepteurs d'algorithmes dans les pays occidentaux. Des informaticiens, au fond, qui savent surtout reconnaître des personnes qui leur ressemblent, et qui transmettent inconsciemment cette approche pipée à leurs créations. 

Programmes sous influence

En 2010, des chercheurs en psychologie de l'Université de Glasgow et de Fribourg ont ainsi expliqué scientifiquement le phénomène du «tous les mêmes», qui frappe les cerveaux dès lors qu'on a affaire au visage d'une ethnicité autre. Aux yeux des Occidentaux, par exemple, il est assez difficile de reconnaître rapidement tel ou tel des individu parmi une foule d'Asiatique, et vice versa. 

La raison? Notre «logiciel» cérébral est bien moins rodé pour identifier des gens ayant des traits différents de ceux qui dominent dans notre propre groupe. Les concepteurs d'algorithmes sont alors victimes de leur biais personnel qu'ils transmettent via les codes qu'ils écrivent, des lunettes cognitives ayant malheureusement tendance à se prétendre universelles avec les technologies de reconnaissance faciale, qui lisent indifféremment tous les visages quelle que soit leur diversité, notamment dans les aéroports. 

Une justice qui peut louper sa cible

Et cela a bien évidemment des conséquences fâcheuses. Lors de leurs enquêtes et contrôles, les policiers s'exposent ainsi à davantage d'erreurs concernant des populations qui, statistiquement, font déjà plus souvent l'objet d'arrestations abusives ou brutales, en particulier les Afro-américains aux USA. 

Mais le manque de précision des logiciels peut aussi avoir des effets dangereux dans les pays ayant mis la reconnaissance faciale au cœur de leur fonctionnement, comme en Chine, où tous les citoyens sont désormais soumis à une sorte de surveillance sociale assistée par informatique. Dans cet immense État où coexistent de nombreuses ethnies distinctes, dont les Ouïghours, actuellement très encadrés par Pékin, le biais des algorithmes peut faire beaucoup de dégâts. 

 

Et quelques liens:

The Washington-Post

Le Temps.ch 

Le Monde diplomatique

 

Retour au blog