Apple iPhone X ne peut pas distinguer les visages chinois, remboursement remboursé

$config[ads_kvadrat] not found

APPLE refuse le délai de rétractation de 14 jours si téléchargement : LA SOLUTION (en description)

APPLE refuse le délai de rétractation de 14 jours si téléchargement : LA SOLUTION (en description)
Anonim

La semaine dernière, à Nanjing, une grande ville de l'est de la Chine, une femme du nom de Yan s'est vu offrir à deux reprises un remboursement par Apple pour son iPhone X défectueux, que son collègue a déverrouillé à l'aide de la technologie de reconnaissance faciale. Les deux femmes sont d'origine ethnique chinoise.

Yan a déclaré aux nouvelles locales que la première fois que cela se produisait, elle avait appelé la hotline iPhone, mais ils ne la croyaient pas. Ce n’est que lorsque sa collègue et elle-même se sont rendues dans un Apple Store local et ont montré au personnel du magasin qu’elles lui offraient un remboursement et qu’elle achetait un nouveau téléphone, pensant qu’il était peut-être à blâmer une caméra défectueuse.

Mais le deuxième téléphone avait le même problème, suggérant que ce n’était pas une caméra défectueuse, comme le suggéraient les employés du magasin, mais un problème lié au logiciel lui-même.

Ce ne serait pas le premier cas dans lequel le logiciel de reconnaissance faciale, et l'IA derrière lui, a eu du mal à reconnaître les visages non blancs.

En 2015, Google Photos a accidentellement étiqueté une photo de deux Afro-Américains comme étant des gorilles, alors qu'en 2009, ordinateurs HP http://www.youtube.com/watch?v=t4DTtqqgRM) avait du mal à reconnaître et à suivre les visages noirs - mais pas de problème avec les visages blancs. La même année, le logiciel de l’appareil photo de Nikon a été surpris en train de mal étiqueter un visage asiatique.

Google Photos, vous êtes tous foiré. Mon ami n'est pas un gorille. pic.twitter.com/SMkMCsNVX4

- Jacky (@jackyalcine) le 29 juin 2015

«C’est fondamentalement un problème de données», a écrit Kate Crawford, chercheuse principale chez Microsoft et coprésidente du Symposium sur la société et la société I.I. de Obama à la Maison Blanche. «Les algorithmes apprennent en se nourrissant de certaines images, souvent choisies par les ingénieurs, et le système construit un modèle du monde à partir de ces images. Si un système est formé sur des photos de personnes extrêmement blanches, il aura plus de mal à reconnaître les visages non-blancs."

Jacky Alcine, le programmeur basé à Brooklyn et dont la photo a été mal étiquetée par Google, a accepté. Au sujet de son expérience, il a déclaré: "Cela aurait pu être évité grâce à une classification précise et plus complète des Noirs."

Mais le racisme codé dans l'IA, même s'il est involontaire, a des implications qui vont au-delà de la simple reconnaissance faciale.

Une enquête de ProPublica en 2016 a révélé que les criminels noirs étaient deux fois plus susceptibles d'être par erreur signalés comme susceptibles de réengager des crimes que les criminels blancs, alors que la tendance croissante à la "police prédictive" utilise des algorithmes pour prévoir le crime et diriger les ressources de la police en conséquence.

Pourtant, les communautés minoritaires ont toujours été sur-policées, ce qui pourrait laisser penser que «ce logiciel risquerait de perpétuer un cercle vicieux», a déclaré Crawford.

De retour à Nanjing, en Chine, Yan a reçu un deuxième remboursement sur son deuxième iPhoneX. D'après les reportages locaux, elle n'a pas encore acheté le tiers.

Ce qui était en jeu, cette fois, n’était peut-être qu’un consommateur unique. Mais le cas de Yan était un exemple de la nécessité persistante pour l’industrie des technologies de concevoir en tenant compte de la diversité et de l’inclusion.

$config[ads_kvadrat] not found