Un programme informatique commun prédit la récidive aussi mal que les humains

$config[ads_kvadrat] not found

COMMENT APPRENDRE À PROGRAMMER ?

COMMENT APPRENDRE À PROGRAMMER ?
Anonim

Tout comme un chef professionnel ou un chirurgien cardiaque, un algorithme d’apprentissage automatique est aussi efficace que la formation qu’il reçoit. Et comme les algorithmes prennent de plus en plus de règnes et prennent des décisions pour les humains, nous découvrons que beaucoup d’entre eux n’ont pas reçu la meilleure éducation, car ils imitent les préjugés fondés sur la race humaine et le genre et créent même de nouveaux problèmes.

Pour ces raisons, il est particulièrement inquiétant que de nombreux États, dont la Californie, New York et le Wisconsin, utilisent des algorithmes pour prédire quelles personnes commettront à nouveau des crimes après leur incarcération. Pire encore, cela ne semble même pas fonctionner.

Dans un article publié mercredi dans le journal Progrès de la science, deux informaticiens du Dartmouth College ont découvert qu’un programme informatique largement utilisé pour prédire la récidive n’était pas plus précis que des civils totalement non entraînés. Ce programme, intitulé Profil de gestion des délinquants en milieu correctionnel pour les peines de substitution, analyse 137 facteurs différents pour déterminer la probabilité qu’une personne commette un autre crime après sa libération. COMPAS considère que des facteurs tels que la consommation de substances psychoactives, l'isolement social et d'autres éléments, selon la théorie des criminologues, peuvent conduire à la récidive, classant les personnes dans un risque élevé, moyen ou faible.

Et bien sûr, l’évaluation des risques semble excellente. Pourquoi ne pas avoir plus de données pour aider les tribunaux à déterminer qui est le plus à risque? Julia Dressel et Hany Farid, informaticiens à Dartmouth, ont découvert que les personnes non entraînées estimaient correctement le risque de récidive avec à peu près la même précision que COMPAS, ce qui donne à penser que la puissance supposée de l’algorithme n’existe pas vraiment.

Dans un essai qui ne comprenait qu'une fraction des informations utilisées par COMPAS (sept facteurs au lieu de 137, sans tenir compte de la race), un groupe de volontaires humains sur Internet, ne disposant probablement d'aucune formation en évaluation du risque criminel, a examiné des rapports de cas. Ils ont correctement estimé la récidive d’une personne avec une précision de 67%, par rapport à une précision de 65% de COMPAS.

Prenez un moment pour laisser passer cela. Les internautes non formés sur le Web étaient légèrement mieux placés pour prédire si une personne retournerait en prison. que l'outil qui est littéralement conçu pour prédire si une personne retournerait en prison. Et ça empire. Une fois que vous avez ajouté la race d’un accusé, les taux de faux positifs et de faux négatifs du volontaire ne dépassaient pas quelques points de pourcentage de ceux de COMPAS. Ainsi, non seulement COMPAS n’est pas très efficace pour prédire la récidive, il est tout aussi vulnérable aux préjugés raciaux que les êtres humains. Voilà pour la logique froide des ordinateurs.

Les chercheurs ont ensuite élaboré un modèle linéaire correspondant au taux de prédiction de COMPAS avec seulement deux facteurs: l’âge et le nombre de condamnations antérieures. Pour être clair, cette prédiction serait également injuste, mais elle montre à quel point COMPAS est imparfait.

Et, bien que cette recherche soit nouvelle, les points à retenir qu’elle préconise ne le sont pas. Dans une enquête de 2016, ProPublica Les rapporteurs ont constaté que COMPAS est non seulement peu fiable, mais qu’il fait systématiquement preuve de partialité à l’égard des Afro-Américains et considère systématiquement les Noirs comme présentant un risque plus élevé que les Blancs qui ont commis des crimes plus graves. Espérons que cette nouvelle recherche aidera à ouvrir la voie à des processus d'évaluation des risques plus simples dans le système de justice pénale.

Le fait que COMPAS soit au mieux inutile et, au pire, profondément biaisé suggère que des évaluations de risque basées sur ordinateur pourraient aggraver les injustices que le système de justice est censé corriger.Étant donné que les scores d'évaluation des risques peuvent être appliqués à n'importe quelle étape du processus de justice pénale, y compris lors de l'établissement du cautionnement d'une personne, de la détermination de sa libération conditionnelle, et dans certains États, même pour déterminer la peine d'une personne, cette recherche suggère un besoin urgent de: réexaminer l'utilisation de COMPAS et d'autres programmes.

$config[ads_kvadrat] not found