Human Rights Watch: La Chine utilise le Big Data pour cibler des groupes minoritaires

$config[ads_kvadrat] not found

Tous tracés

Tous tracés
Anonim

Le gouvernement chinois utilise des algorithmes de police prédictifs pour cibler les minorités ethniques de la province du Xinjiang, selon un rapport de Human Rights Watch publié lundi.

La province du nord-ouest de la Chine abrite 11 millions d'Oughours, un groupe ethnique musulman turc qui a été discriminé par le gouvernement chinois ces dernières années.

À présent, les autorités utiliseraient le Big Data pour cibler systématiquement toute personne soupçonnée de déloyauté politique. Cette campagne s'inscrit dans le cadre de la campagne «Strike Hard», visant à mettre un terme aux activités terroristes potentielles en Chine. Dans la pratique, cela a conduit à un maintien de l'ordre disproportionné sur les Ouïghours, a déclaré Human Rights Watch.

Le système de police prédictif, appelé IJOP - Plateforme d'opérations conjointes intégrée - est alimenté en données à partir de divers outils de surveillance. Il s'agit notamment des caméras de vidéosurveillance, des numéros de plaque d'immatriculation et de carte d'identité de citoyen obtenus aux points de contrôle de sécurité, ainsi que de nombreuses informations personnelles, notamment des dossiers médicaux, bancaires et juridiques.

Outre la surveillance automatisée, les représentants du gouvernement effectuent des visites à domicile pour collecter des données sur la population. Un homme d’affaires chinois a partagé avec Human Rights Watch un formulaire qu’il avait rempli pour les archives d’IJOP. Le questionnaire lui avait notamment demandé s’il était ouïgour, combien de fois il priait et où il se rendait pour des services religieux.

L'IJOP utilise toutes ces entrées de données pour signaler les personnes à des menaces potentielles. Lorsqu'une personne est signalée, la police ouvre une nouvelle enquête et la met en détention si elle est jugée suspecte.

«Pour la première fois, nous sommes en mesure de démontrer que l’utilisation par le gouvernement chinois de données massives et d’une surveillance prédictive non seulement viole de manière flagrante le droit à la vie privée, mais permet également aux responsables de détenir de manière arbitraire des personnes», a déclaré Maya Wang, chercheuse en chef de Human Rights Watch en Chine.

Selon le rapport, certaines des personnes signalées ont été acheminées vers des centres d'éducation politique où elles sont détenues indéfiniment sans procès.

"Depuis environ avril 2016, selon Human Rights Watch, les autorités du Xinjiang ont envoyé des dizaines de milliers de Ouïghours et d'autres minorités ethniques dans des" centres d'éducation politique "", indique le rapport. L'IJOP confère de la crédibilité à ces détentions en appliquant un vernis d'analyse objective et algorithmique aux arrestations discriminatoires.

Pour aggraver les choses, le fonctionnement interne de l'IJOP est couvert de secret.

"Les habitants du Xinjiang ne peuvent ni résister ni contester l'examen de plus en plus intrusif de leur vie quotidienne, car la plupart ne savent même pas ce programme" boîte noire "ni son fonctionnement", a déclaré Wang.

C’est le même problème qui affecte les systèmes d’apprentissage automatique les plus sophistiqués: les procédures de décision qu’ils utilisent sont opaques même pour les créateurs de l’algorithme.

L’utilisation de l’IJOP par la Chine mérite d’être étudiée, car la police prédictive risque de se multiplier à mesure que la technologie s’améliorera. Comme Jon Christian l'a souligné à Le contour, les systèmes de police prédictifs sont déjà utilisés dans certains endroits aux États-Unis. Le département de police de Los Angeles utilise un logiciel qui prévoit où et quand des crimes sont susceptibles de se produire afin que les officiers puissent les prévenir.

De l’autre côté du système de justice pénale, les salles d’audience utilisent parfois des algorithmes qui donnent aux éventuels libérés conditionnels des scores «d’évaluation du risque» afin d’aider les juges à prendre des décisions plus éclairées. Malheureusement, ces algorithmes supposés non biaisés discriminent réellement en fonction de la race.

L’incursion de la Chine dans la police prédictive souligne l’importance d’une implémentation responsable de l’algorithme alors que l’apprentissage automatique continue à entrer dans le secteur public. Il est peut-être temps que les gouvernements férus de technologie adoptent un nouveau mantra: parfois, l'intelligence artificielle crée plus de problèmes qu'elle n'en résout.

$config[ads_kvadrat] not found