Tech News

L’industrie de haute technologie n’ont pas de plan pour faire face aux préjugés de reconnaissance faciale

La reconnaissance faciale est en train de devenir une partie du tissu de la vie quotidienne. Vous pouvez déjà l’utiliser pour vous connecter à votre téléphone ou de votre ordinateur, ou d’authentifier les paiements avec votre banque. En Chine, où la technologie est de plus en plus communs, votre visage peut être utilisé pour acheter de la nourriture rapide, ou de réclamation de votre allocation de papier toilette à des toilettes publiques. Et c’est pour ne rien dire de la façon dont l’application de la loi les organismes du monde entier sont en train d’expérimenter avec la reconnaissance faciale comme outil de surveillance massive.

Mais l’adoption généralisée de cette technologie dément problèmes structurels sous-jacents, pas moins la question de la partialité. Par la présente, les chercheurs signifie que le logiciel utilisé pour l’identification faciale, la reconnaissance, ou de l’analyse effectue différemment selon l’âge, le sexe et l’origine ethnique de la personne à identifier.

Une étude publiée en février par des chercheurs du MIT Media Lab a constaté que la reconnaissance faciale des algorithmes conçus par IBM, Microsoft, et le Visage++ avaient les taux d’erreur de jusqu’à 35% de plus lors de la détection du sexe de la plus foncée à la peau des femmes par rapport à la peau plus claire des hommes. De cette façon, un biais dans la reconnaissance faciale risque de renforcer les préjugés de la société, qui touche de façon disproportionnée les femmes et les minorités, potentiellement verrouillage du monde de l’infrastructure numérique, ou infliger de changer la vie des jugements sur eux.

C’est la mauvaise nouvelle. La pire nouvelle est que les entreprises n’ont pas encore de plan pour résoudre ce problème. Bien que les entreprises individuelles sont la lutte contre la partialité dans leur propre logiciel, les experts affirment qu’il n’existe pas d’indice de référence qui serait de permettre au public de suivre l’amélioration sur une industrie à grande échelle. Ainsi, lorsque les entreprises n’réduire les biais dans leurs algorithmes (comme Microsoft a annoncé le mois dernier), il est difficile de juger de l’importance de ce qui est.

Clare Garvie, un associé de Droit de Georgetown Centre sur la vie privée Et de la Technologie, a dit Le Point que beaucoup croient qu’il est temps de présenter l’ensemble de l’industrie des repères pour le biais et la précision des tests d’évaluer les performances des algorithmes d’effectuer sur les différentes données démographiques, comme l’âge, le sexe et la tonicité de la peau. “Je pense que ce serait extrêmement avantageux”, explique Garvie. “En particulier pour les entreprises qui seront contrats avec des organismes publics.”

La reconnaissance faciale est devenu plus facile que jamais pour les entreprises à utiliser. Amazon Rekognition API a été utilisé par le royaume-UNI diffuseur Ciel pour identifier les célébrités au mariage royal en Mai. Crédit: Sky news

Quelles sont les entreprises qui font des?

Dans une enquête informelle, Le Point contacté une douzaine de différentes entreprises qui vendent de l’identification faciale, la reconnaissance et l’analyse des algorithmes. Toutes les entreprises qui ont répondu ont dit qu’ils étaient au courant de la question de la partialité, et la plupart ont dit qu’ils faisaient de leur mieux pour réduire leurs propres systèmes. Mais n’y a aucun partage des données détaillées sur leur travail, ou de révéler leurs propres mesures. Si vous utilisez régulièrement un algorithme de reconnaissance faciale, n’aimeriez-vous pas savoir si elle effectue régulièrement de pire pour votre sexe ou votre tonus de la peau?

Google, qui ne vend que des algorithmes qui permettent de détecter la présence de visages, pas de leurs identités, a déclaré: “Nous faisons des tests de biais, et nous sommes constamment à l’essai de notre sous-jacentes des modèles dans un effort pour les rendre moins biaisée et plus juste. Nous n’avons pas plus de détails à partager autour de cela en ce moment.”

Microsoft a souligné l’une de ses récentes améliorations, y compris à sa reconnaissance du genre de logiciel, qui a maintenant un taux d’erreur de 1,9 pour cent pour la plus foncée à la peau des femmes (en baisse de 20,8 pour cent). La société n’offre pas de commentaire officiel, mais a souligné un rapport de juillet post de blog par son chef de la direction des affaires juridiques, Brad Smith. Dans le post, Smith a dit qu’il était temps pour le gouvernement de réglementer sa propre utilisation de la reconnaissance faciale, mais pas de son déploiement par des entreprises privées. Y compris, peut-être, réglage minimum les normes de précision.

IBM a également souligné que les récentes améliorations, ainsi que sa sortie le mois dernier d’un vaste ensemble de données pour la formation des systèmes d’identification faciale, organisée pour lutter contre les préjugés. Ruchir Puri, architecte en chef d’IBM Watson, dit Le Point , en juin, que la société voulait l’aider à établir l’exactitude des repères. “Il devrait y avoir des matrices par laquelle la plupart de ces systèmes doivent être jugés”, a déclaré Puri. “Mais à en juger doit être fait par la communauté, et pas par n’importe quel joueur en particulier.”

Amazon n’ont pas répondu aux questions, mais nous a demandé de déclarations, il a publié plus tôt cette année après avoir été critiqué par l’ACLU pour la vente de reconnaissance faciale à l’application de la loi. (L’ACLU fait des critiques similaires aujourd’hui: il testé la compagnie du logiciel de reconnaissance faciale pour identifier les photos des membres du Congrès, et a constaté que ils ont mal correspondre 28 personnes pénale mugshots.)

Amazon dit qu’il va retirer l’accès des clients à ses algorithmes, s’ils sont utilisés de manière illégale la discrimination ou de violer le droit du public de confidentialité, mais ne mentionne pas toute forme de surveillance. La société dit que La Veille il avait des équipes de travail en interne pour détecter et éliminer les biais de ses systèmes, mais ne serait pas partager toute information complémentaire. Ce qui est remarquable compte tenu Amazon continue à vendre ses algorithmes pour les agences d’application de loi.

De l’entreprise, les vendeurs au Bord de La crise approchait, certains n’offre pas une réponse directe à tous, y compris FaceFirst, Gemalto, et NEC. D’autres, comme Cognitec, une firme allemande qui vend des algorithmes de reconnaissance de visage pour l’application de la loi et de la frontière agences à travers le monde, a reconnu que le fait d’éviter les biais était dur sans droit de données.

“Les bases de données disponibles sont souvent biaisées,” Cognitec responsable marketing, Elke Oberg, dit La Veille. “Ils pourraient simplement être des personnes blanches, parce que quel que soit le fournisseur avait à sa disposition que des modèles.” Oberg dit Cognitec fait de son mieux pour s’entraîner sur des données diverses, mais que les forces du marché qui vont éliminer les mauvaises algorithmes. “Tous les fournisseurs travaillent sur [ce problème] parce que le public est conscient de cela,” dit-elle. “Et je pense que si vous voulez survivre en tant que fournisseur, vous aurez certainement besoin de former votre algorithme sur des données diverses.”

Miami Int’l Airport To Use Facial Recognition Technology At Passport Control La reconnaissance faciale est couramment utilisé à la frontière, bien que, dans ce contexte, il est plus facile de ne pas faire des erreurs. Photo: Raedle/Getty Images

Comment pouvons-nous aborder la question de la partialité?

Ces réponses montrent que, même si il y a prise de conscience du problème de partialité, il n’y a pas de réponse coordonnée. Alors, que faire? La solution de la plupart des experts suggèrent est conceptuellement simple, mais difficile à mettre en œuvre: créer l’ensemble de l’industrie des tests de précision et de partialité.

La chose intéressante est qu’un test de ce type existe déjà, en quelque sorte. Il est appelé le FRVT (la Reconnaissance du Visage à l’Essai du Fournisseur) et est administré par l’Institut National des Normes et de la Technologie, ou du NIST. Il teste la précision des dizaines de systèmes de reconnaissance faciale dans les différents scénarios, comme la contrepartie d’une photo de passeport pour une personne debout à la porte de la frontière, ou de visages à partir d’images de VIDÉOSURVEILLANCE de mugshots dans une base de données. Et il teste “démographiques différentiels” — la façon dont les algorithmes effectuer fondée sur le sexe, l’âge et la race.

Cependant, la FRVT est entièrement volontaire, et les organisations qui soumettent leurs algorithmes ont tendance à être soit de l’entreprise les vendeurs d’essayer de vendre leurs services au gouvernement fédéral, ou des universitaires de tester de nouveaux modèles expérimentaux. Les petites entreprises comme NEC et Gemalto soumettre leurs algorithmes, mais aucun des grands commerciale des entreprises de haute technologie ne.

Garvie suggère que, plutôt que de créer de nouveaux tests pour la reconnaissance faciale précision, il pourrait être une bonne idée d’élargir la portée de la FRVT. “Le NIST a fait un travail admirable dans la réalisation de ces tests,” dit Garvie. “[Mais] ils ont aussi des ressources limitées. Je pense que nous aurions besoin de législation ou de soutien financier du gouvernement fédéral d’augmenter la capacité de le NIST pour tester d’autres entreprises.” Un autre défi est que la profondeur des algorithmes d’apprentissage déployés par les goûts de Amazon et Microsoft ne peuvent pas être facilement envoyés pour analyse. Ils sont énormes morceaux de constamment mise à jour de logiciels; très différentes des anciens systèmes de reconnaissance faciale, qui peut généralement tenir sur un seul disque de pouce.

S’exprimant à La Veille, le NIST biométriques des normes et des tests de plomb Patrick Grother il est clair que l’organisation actuelle du rôle n’est pas réglementaire. “Nous ne faisons pas le règlement, nous ne faisons pas de politique. Nous venons de produire,” dit Grother. Le NIST a été testé l’exactitude de la reconnaissance faciale des algorithmes pour près de 20 ans, et est actuellement en train de préparer un rapport, portant spécifiquement sur le sujet de biais dus à la fin de l’année.

Grother dit que bien qu’il y ait “des réductions substantielles des erreurs” depuis le NIST a commencé les tests, il existe encore de grandes disparités entre les performances des différents algorithmes. “Pas tout le monde peut faire de la reconnaissance faciale, mais beaucoup de gens pensent qu’ils peuvent”, dit-il.

Grother dit que la récente discussion de biais fréquemment confond les différents types de problèmes. Il souligne que, bien qu’un manque de diversité dans la formation des ensembles de données peuvent créer de biais, ce qui peut avoir une mauvaise photographie de l’objet, surtout si leur tonicité de la peau n’est pas correctement exposés. De même, les différents types d’erreur moyenne de plus lorsqu’il est appliqué à différents types de tâches. Toutes ces subtilités doivent être considérés pour un indice de référence ou d’un règlement.

En Chine, la police a commencé à utiliser les lunettes de soleil avec construit-dans la reconnaissance faciale pour identifier les criminels. Crédit: AFP/Getty Images

Biais n’est pas le seul problème

Mais la discussion sur les biais invite d’autres questions au sujet de la société de l’utilisation de la reconnaissance faciale. Pourquoi se soucier de l’exactitude de ces outils lorsque le plus gros problème est de savoir si ou non ils vont être utilisés pour le gouvernement de la surveillance et de ciblage des minorités?

La joie Buolamwini, une IA scientifique qui a co-écrit le MIT étude sur les différents taux d’exactitude dans le genre-l’identification des algorithmes, dit Le Point sur l’email que la fixation des préjugés seul ne permet pas de répondre entièrement à ces questions plus larges. “Qu’en est-il de développer visage technologie d’analyse qui sont ensuite utilisées à des fins militaires?” dit Buolamwini. “Une approche plus globale qui traite des problèmes avec l’analyse du visage de la technologie comme un sociotechnique problème est nécessaire. Les considérations techniques ne peuvent être dissociées de la conséquences sociales.”

Buolamwini et quelques autres dans l’IA de la communauté participent activement sur ces questions. Brian Brackeen, chef de la direction de la reconnaissance faciale fournisseur de Kairos, a récemment annoncé que sa société allait pas vendre la reconnaissance faciale des systèmes d’application de la loi à tous en raison de la possibilité d’abus.

S’exprimant à La Veille, Brackeen dit que quand il s’agit de déploiement commercial de la reconnaissance faciale, les forces du marché à aider à éliminer les biaisée des algorithmes. Mais, dit-il, quand ces outils sont utilisés par le gouvernement, les enjeux sont beaucoup plus élevés. C’est parce que les organismes fédéraux ont accès à beaucoup plus de données, l’augmentation de la possibilité de ces systèmes utilisés pour suppressive de surveillance. (Il est estimé que le gouvernement AMÉRICAIN détient visage de données pour la moitié de la population adulte de la population.) De même, les décisions prises par le gouvernement à l’aide de ces algorithmes ont une plus grande incidence sur la vie des individus.

“Le cas d’utilisation [pour l’application de la loi] n’est pas seulement un appareil photo dans la rue; c’est le corps des caméras, des mugshots, line-up,” dit Brackeen. Si la polarisation est un facteur dans ces scénarios, dit-il, puis “vous avez une plus grande possibilité pour une personne de couleur pour être faussement accusé d’un crime.”

Discussion à propos de la correction, alors, on dirait qu’elle ne seront que le début d’un vaste débat. Comme Buolamwini dit, des points de repère peuvent jouer leur rôle, mais plus doit être fait: “les Entreprises, les chercheurs et les universitaires de l’élaboration de ces outils afin de prendre la responsabilité pour placer le contexte des limitations sur les systèmes qu’ils se développer si le voulez pour atténuer les méfaits.”

About the author

Cyriac

Je suis Zeh Cyriac , fondateur et chef de la direction de la société informatique DROP Corporation Inc. et blogueur indépendant aux États-Unis, avec une passion pour l'Entrepreneuriat en ligne, le marketing de contenu et toutes les choses qui tournent au tour du digital et ’informatique .

Add Comment

Click here to post a comment

Newsletter

Les dernières nouvelles du Web, de la high-tech et de l'innovation numérique tous les matins à l'heure du petit déjeuner.

Vous avez parfaitement souscrit ! Consultez vos mails pour confirmer l'inscription .