Étude: un algorithme "biaisé contre les Noirs" derrière les prédictions médiocres de la récidive des détenus

$config[ads_kvadrat] not found
Anonim

Les algorithmes sont aussi biaisés que les personnes qui les fabriquent. Une enquête de ProPublica ont découvert que Northpointe, le créateur d’un algorithme qui tente de prédire la probabilité d’une personne incarcérée de commettre un autre crime, prédit que les Noirs sont beaucoup plus susceptibles de commettre un crime après leur sortie que les Blancs.

L'algorithme crée un score «d'évaluation du risque» pour les détenus. Il est utilisé dans tout le pays pour guider les dates de libération des prisonniers. Après avoir analysé les données de plus de 7 000 personnes dans le comté de Broward, en Floride, la réalité des algorithmes racistes est claire: les accusés noirs étaient presque deux fois plus susceptibles que les accusés blancs de prédire la commission d’un autre crime.

L'analyse a tenu compte de variables telles que le sexe et les antécédents criminels. Néanmoins, on prévoyait que les Noirs auraient 77% plus de risque de commettre un crime violent à l'avenir et 45% plus susceptible de commettre un autre crime. Autre fait troublant, seulement 20% des prédictions de Northpointe sur les auteurs des futurs crimes violents sont exactes.

Northpointe utilise 137 questions pour juger du potentiel des auteurs d’un crime. Comme le rapporte ProPublica, les questions évitent de poser des questions sur la race. Certaines des questions peuvent cependant être liées.

Voici des exemples de questions: «Un de vos parents a-t-il déjà été envoyé en prison?» Et «À quelle fréquence avez-vous eu des bagarres à l'école?» Il y a également des questions oui / non telles que «Une personne qui a faim a le droit voler. »Parmi les autres facteurs, il y a le niveau d'éducation et le fait qu'une personne ait ou non un emploi.

ProPublica a expliqué en détail les méthodes utilisées pour consulter et analyser les données de Northpointe dans un message explicatif. Northpointe a envoyé une lettre à ProPublica dans laquelle elle indiquait que la société «n’est pas d’accord pour dire que les résultats de leur analyse ou les affirmations faites analyse, sont correctes ou reflètent bien les résultats de l’application du modèle."

Les résultats de ProPublica, pour ne pas dire étonnants, sont inquiétants. Les évaluations des risques sont utilisées pour calculer la libération conditionnelle et décider du montant des cautionnements; ils prennent même en compte les condamnations pénales dans neuf États.

La technologie n'est pas la solution ultime à tous les problèmes, d'autant plus que la technologie est aussi défectueuse que les personnes qui la fabriquent.

$config[ads_kvadrat] not found