stringtranslate.com

COMPAS (software)

El Perfil de Gestión de Delincuentes Correccionales para Sanciones Alternativas ( COMPAS ) [1] es una herramienta de gestión de casos y apoyo a la toma de decisiones desarrollada y propiedad de Northpointe (ahora Equivant) utilizada por los tribunales de EE. UU. para evaluar la probabilidad de que un acusado se convierta en reincidente . [2] [3]

COMPAS ha sido utilizado por los estados de Nueva York, Wisconsin, California, el condado de Broward de Florida y otras jurisdicciones de EE. UU. [4]

Evaluación de riesgos

El software COMPAS utiliza un algoritmo para evaluar el riesgo potencial de reincidencia. Northpointe creó escalas de riesgo para la reincidencia general y violenta, y para la mala conducta previa al juicio. Según la Guía del profesional de COMPAS, las escalas se diseñaron utilizando constructos conductuales y psicológicos "de gran relevancia para la reincidencia y las carreras delictivas". [5]

Escala de riesgo de libertad previa al juicio
El riesgo previo al juicio es una medida de la posibilidad de que una persona no comparezca y/o cometa nuevos delitos mientras se encuentra en libertad. Según la investigación que sirvió de base para la creación de la escala, "los cargos actuales, los cargos pendientes, el historial de arrestos previos, el fracaso previo en la etapa previa al juicio, la estabilidad residencial, la situación laboral, los vínculos comunitarios y el abuso de sustancias" son los indicadores más importantes que afectan a las puntuaciones de riesgo previo al juicio. [5]
Escala general de reincidencia
La escala de reincidencia general está diseñada para predecir nuevos delitos tras la liberación y después de la evaluación COMPAS. La escala utiliza los antecedentes penales y las personas con las que se relaciona, su consumo de drogas y los indicios de delincuencia juvenil. [6]
Escala de reincidencia violenta
La escala de reincidencia violenta tiene como objetivo predecir los delitos violentos posteriores a la liberación. La escala utiliza datos o indicadores que incluyen los "antecedentes de violencia, antecedentes de incumplimiento, problemas vocacionales o educativos, la edad de la persona en el momento de su ingreso y la edad de la persona en el momento de su primer arresto". [7]

La escala de riesgo de reincidencia violenta se calcula de la siguiente manera:

donde es la puntuación de riesgo de reincidencia violenta, es un multiplicador de peso, es la edad actual, es la edad en el momento del primer arresto, es el historial de violencia, es la escala de educación vocacional y es el historial de incumplimiento. El peso, , está "determinado por la fuerza de la relación del ítem con la reincidencia delictiva de la persona que observamos en los datos de nuestro estudio". [8]

Críticas y sentencias judiciales

Las intervenciones de la IA y los algoritmos en los tribunales suelen estar motivadas por sesgos cognitivos como el efecto del juez hambriento . [9]

En julio de 2016, la Corte Suprema de Wisconsin dictaminó que los jueces pueden tener en cuenta los puntajes de riesgo de COMPAS durante la sentencia, pero deben incluirse advertencias sobre los puntajes para representar las "limitaciones y precauciones" de la herramienta. [4]

Una crítica general al uso de software propietario como COMPAS es que, dado que los algoritmos que utiliza son secretos comerciales , no pueden ser examinados por el público y las partes afectadas, lo que puede constituir una violación del debido proceso. Además, se ha demostrado que algoritmos simples, transparentes y más interpretables (como la regresión lineal ) realizan predicciones aproximadamente tan bien como el algoritmo COMPAS. [10] [11] [12]

Otra crítica general a los algoritmos basados ​​en aprendizaje automático es que, dado que dependen de los datos, si estos están sesgados, el software probablemente producirá resultados sesgados. [13]

En concreto, se ha afirmado que las evaluaciones de riesgo COMPAS violan los derechos de igualdad de protección de la Enmienda 14 sobre la base de la raza, ya que se afirma que los algoritmos son racialmente discriminatorios, dan lugar a un tratamiento desigual y no están específicamente diseñados. [14]

Exactitud

En 2016, Julia Angwin fue coautora de una investigación de ProPublica sobre el algoritmo. [15] El equipo descubrió que "los negros tienen casi el doble de probabilidades que los blancos de ser etiquetados como de mayor riesgo pero no reincidir", mientras que COMPAS "comete el error opuesto entre los blancos: tienen muchas más probabilidades que los negros de ser etiquetados como de menor riesgo pero de continuar cometiendo otros delitos". [15] [10] [16] También descubrieron que solo el 20 por ciento de las personas que se predijo que cometerían delitos violentos realmente lo hicieron. [15]

En una carta, Northpointe criticó la metodología de ProPublica y afirmó que: "[La empresa] no está de acuerdo en que los resultados de su análisis, o las afirmaciones realizadas en base a ese análisis, sean correctos o que reflejen con precisión los resultados de la aplicación del modelo". [15]

Otro equipo de Community Resources for Justice , un grupo de expertos en justicia penal , publicó una refutación de los hallazgos de la investigación. [17] Entre varias objeciones, la refutación de CRJ concluyó que los resultados de Propublica: "contradicen varios estudios exhaustivos existentes que concluyen que el riesgo actuarial se puede predecir sin sesgo racial y/o de género". [17]

Un estudio posterior ha demostrado que el software COMPAS es algo más preciso que el de individuos con poca o ninguna experiencia en justicia penal, pero menos preciso que el de grupos de tales individuos. [18] Encontraron que: "En promedio, obtuvieron la respuesta correcta el 63 por ciento de las veces, y la precisión del grupo aumentó al 67 por ciento si se agruparon sus respuestas. COMPAS, por el contrario, tiene una precisión del 65 por ciento". [10] Investigadores de la Universidad de Houston descubrieron que COMPAS no se ajusta a los criterios de equidad de grupo y produce varios tipos de resultados injustos en grupos demográficos basados ​​en el sexo y la raza. [19]

Lectura adicional

Véase también

Referencias

  1. ^ "DOC COMPAS" . Consultado el 4 de abril de 2023 .
  2. ^ Sam Corbett-Davies, Emma Pierson, Avi Feller y Sharad Goel (17 de octubre de 2016). "Un programa informático utilizado para decisiones sobre fianzas y sentencias fue etiquetado como tendencioso contra los negros. En realidad, no está tan claro". The Washington Post . Consultado el 1 de enero de 2018 .{{cite news}}: CS1 maint: multiple names: authors list (link)
  3. ^ Aaron M. Bornstein (21 de diciembre de 2017). «¿Están los algoritmos construyendo la nueva infraestructura del racismo?». Nautilus . N.º 55 . Consultado el 2 de enero de 2018 .
  4. ^ ab Kirkpatrick, Keith (23 de enero de 2017). "No es el algoritmo, son los datos". Comunicaciones de la ACM . 60 (2): 21–23. doi :10.1145/3022181. S2CID  33993859.
  5. ^ desde Northpointe 2015, pág. 27.
  6. ^ Northpointe 2015, pág. 26.
  7. ^ Northpointe 2015, pág. 28.
  8. ^ Northpointe 2015, pág. 29.
  9. ^ Chatziathanasiou, Konstantin (mayo de 2022). "Cuidado con el atractivo de las narrativas: los "jueces hambrientos" no deberían motivar el uso de la "inteligencia artificial" en el derecho". Revista de Derecho Alemana . 23 (4): 452–464. doi : 10.1017/glj.2022.32 . ISSN  2071-8322. S2CID  249047713.
  10. ^ abc Yong, Ed (17 de enero de 2018). "Un algoritmo popular no es mejor para predecir delitos que personas al azar" . Consultado el 21 de noviembre de 2019 .
  11. ^ Angelino, Elaine; Larus-Stone, Nicholas; Alabi, Daniel; Seltzer, Margo; Rudin, Cynthia (junio de 2018). "Aprendizaje de listas de reglas certifiably óptimas para datos categóricos". Journal of Machine Learning Research . 18 (234): 1–78. arXiv : 1704.01701 . Consultado el 20 de julio de 2023 .
  12. ^ Robin A. Smith. Abriendo la tapa del software de sentencias penales. Duke Today , 19 de julio de 2017
  13. ^ O'Neil, Cathy (2016). Armas de destrucción matemática . Crown. pág. 87. ISBN 978-0553418811.
  14. ^ Thomas, C.; Nunez, A. (2022). "Automatización de la discreción judicial: cómo las evaluaciones algorítmicas de riesgos en las sentencias previas al juicio violan los derechos de protección igualitaria sobre la base de la raza". Derecho y desigualdad . 40 (2): 371–407. doi : 10.24926/25730037.649 .
  15. ^ abcd Angwin, Julia; Larson, Jeff (23 de mayo de 2016). "Machine Bias". ProPublica . Consultado el 21 de noviembre de 2019 .
  16. ^ Israni, Ellora (26 de octubre de 2017). "Cuando un algoritmo ayuda a enviarte a prisión (opinión)". The New York Times . Consultado el 21 de noviembre de 2019 .
  17. ^ ab Flores, Anthony; Lowenkamp, ​​Christopher; Bechtel, Kristin. "Falsos positivos, falsos negativos y falsos análisis" (PDF) . Recursos comunitarios para la justicia . Consultado el 21 de noviembre de 2019 .
  18. ^ Dressel, Julia; Farid, Hany (17 de enero de 2018). "La precisión, la imparcialidad y los límites de la predicción de la reincidencia". Science Advances . 4 (1): eaao5580. Bibcode :2018SciA....4.5580D. doi : 10.1126/sciadv.aao5580 . PMC 5777393 . PMID  29376122. 
  19. ^ Gursoy, Furkan; Kakadiaris, Ioannis A. (28 de noviembre de 2022). "Igualdad en la confusión: medición de disparidades basadas en grupos en sistemas de decisión automatizados". Talleres de la Conferencia Internacional sobre Minería de Datos (ICDMW) del IEEE de 2022. IEEE. págs. 137–146. arXiv : 2307.00472 . doi :10.1109/ICDMW58026.2022.00027. ISBN . 979-8-3503-4609-1.S2CID256669476  .​