Un algorithme est en cours de test à San Francisco en vue de la mise en liberté provisoire

$config[ads_kvadrat] not found

L'algorithmique (3/10) : Les tests

L'algorithmique (3/10) : Les tests
Anonim

Le système de justice pénale est en train de changer d'algorithme. Une trentaine de juridictions - y compris l’ensemble des États de l’Arizona, du Kentucky et du New Jersey, ainsi que des villes comme San Francisco et Chicago - ont testé un algorithme permettant de fixer le coût de la mise en liberté sous caution sur la base de données de casier judiciaire nationales. Tous les juges ne sont pas nécessairement prêts à prendre à cœur les recommandations numériques.

Cet algorithme a été créé par la fondation Laura et John Arnold, basée à Houston, et est appelé Public Safety Assessment, ou PSA. Le but de l’algorithme est d’éliminer les préjugés de la détermination de la liberté provisoire en utilisant les données de 1,5 million de cas avant le procès. Dans le passé, toutefois, les algorithmes comportaient les mêmes partis pris que ceux qui les fabriquaient.

Neuf facteurs entrent dans l’algorithme, selon le site Web de la fondation:

  • Si l'infraction actuelle est violente
  • Si la personne a une accusation en instance au moment de l'arrestation
  • Si la personne a une condamnation pour délit antérieur
  • Si la personne a déjà été condamnée pour crime
  • Si la personne a déjà été condamnée pour un crime violent
  • L’âge de la personne au moment de l’arrestation
  • Si la personne n'a pas comparu à l'audience préliminaire au cours des deux dernières années
  • Si la personne n'a pas comparu à l'audience préliminaire il y a plus de deux ans
  • Si la personne a déjà été condamnée à une peine d'emprisonnement.

L’algorithme ne prend pas en compte la race, le sexe, le revenu, l’éducation, l’emploi ou le voisinage. Selon la fondation, cela rend PSA neutre.

Cependant, les juges de San Francisco n’ont pas toujours suivi les recommandations, le San Francisco Chronicle rapports.

San Francisco a décidé d’utiliser cet algorithme après que la ville eut été poursuivie en justice par un groupe national de défense des droits civils qui avait affirmé que le cautionnement exorbitant blessait davantage les pauvres que les riches. Les riches qui commettaient des crimes mineurs cherchaient leur sortie de prison, tandis que les pauvres qui n’avaient pas les moyens de payer une caution excessive étaient laissés dans une cellule de détention jusqu’à la tenue d’un procès.

Le PSA était supposé niveler le terrain de jeu en se basant sur les données plutôt que sur le crime immédiat. L'algorithme utilise des données historiques pour juger de la probabilité qu'une personne commette un autre crime ou évite un procès si elle est mise sous caution. Rapport minoritaire style. Si la probabilité est élevée, la caution est fixée plus haut, et inversement.

Un algorithme similaire créé par Northpointe a été utilisé pour guider les dates de libération des prisonniers. ProPublica a publié les résultats d’une enquête menée en mai selon laquelle les scores «d’évaluation des risques» attribués à l’algorithme de Northpointe prédisaient de manière disproportionnée que les Noirs étaient plus susceptibles de commettre un autre crime que les Blancs après leur sortie. Seulement 20% des prévisions de Northpointe étaient exactes.

D'autre part, les technologies de cartographie avancées et les mégadonnées aident également les forces de l'ordre à identifier et à surveiller les points chauds du crime.

L’algorithme de la fondation vise à éviter un biais similaire en supprimant tout indicateur démographique. Cependant, que cela fonctionne vraiment ou non, on ne le verra pas tant que les juges ne commenceront pas à s’appuyer sur des algorithmes supérieurs à ceux du précédent et de l’intuition.

$config[ads_kvadrat] not found