Ir al contenido

COMPAS (software)

De Wikipedia, la enciclopedia libre

 Correctional Offender Management Profiling for Alternative Sanctions (COMPAS)[1]​ es un software de gestión de casos y soporte de decisiones desarrollado y propiedad de Northpointe (ahora Equivant), utilizado por los tribunales de Estados Unidos para evaluar la probabilidad de que un acusado se convierta en reincidente.[2]

Este software ha sido utilizado por los estados de Nueva York, Wisconsin, California, el condado de Broward de Florida y otras jurisdicciones.[3]

Evaluación de riesgos

[editar]

El software COMPAS utiliza un algoritmo para evaluar el riesgo potencial de reincidencia. Para esto, Northpointe creó escalas de riesgo para la reincidencia general y violenta, así como para la mala conducta previa al juicio. Según la Guía del Profesional de COMPAS (COMPAS Practitioner's Guide), estas escalas se diseñaron utilizando constructos conductuales y psicológicos "de muy alta relevancia para la reincidencia y las carreras delictivas".

Escala de riesgo de liberación previa al juicio
El riesgo previo al juicio es una medida del potencial de que un individuo no comparezca o cometa nuevos delitos graves mientras está en libertad. De acuerdo con la investigación que motivó la creación de la escala, "los cargos actuales, los cargos pendientes, el historial de arrestos, el incumplimiento previo de las condenas previas al juicio, la estabilidad residencial, la situación laboral, los vínculos comunitarios y el abuso de sustancias" son los indicadores más significativos que afectan las puntuaciones de riesgo previo al juicio.[4]
Escala general de reincidencia
La escala general de reincidencia está diseñada para predecir nuevos delitos tras la liberación y después de que COMPAS de la evaluación. La escala utiliza los antecedentes penales y las relaciones del individuo, su consumo de drogas y los indicios de delincuencia juvenil.[5]
Escala de reincidencia violenta
La escala de reincidencia violenta busca predecir los delitos violentos tras la liberación. La escala utiliza datos o indicadores que incluyen el historial de violencia, el historial de incumplimiento, los problemas vocacionales/educativos, la edad de ingreso y la edad de su primer arresto.[6]

La forma de calcular la escala de riesgo de reincidencia violenta es la siguiente:

dónde es la puntuación de riesgo de reincidencia violenta, es un multiplicador de ponderación, es la edad actual, es la edad del primer arresto es el historial de violencia, es la escala de educación vocacional, y es el historial de incumplimiento. La ponderación, , está "determinada por la fuerza de la relación del ítem con la reincidencia en delitos contra las personas que observamos en los datos de nuestro estudio".[7]

Críticas y fallos judiciales

[editar]

Los defensores del uso de inteligencia artificial y algoritmos en los tribunales tienden a defender que estas soluciones mitigarán los sesgos y errores predecibles en la manera de razonar de los jueces, como por ejemplo el efecto del juez hambriento (un fenómeno por el cual los jueces tienen tienden a tomar decisiones indulgentes después de comer).[8]

En julio de 2016, la Corte Suprema de Wisconsin dictaminó que la puntuación de riesgo de COMPAS podría ser considerada por los jueces durante la sentencia, pero sería obligatorio que dichas puntuaciones fueran acompañadas de advertencias que expongan las "limitaciones y precauciones" de la herramienta.

Una de las críticas generales sobre el uso de software como COMPAS es que, dado que los algoritmos que utiliza son secretos comerciales, estos no pueden ser examinados por el público ni por las partes afectadas, lo que podría ser una violación de dicho proceso. Además, se ha demostrado que algoritmos simples, transparentes y más interpretables (como la regresión lineal) realizan predicciones tan buenas como el algoritmo COMPAS.[9]

Otra de las críticas generales a los algoritmos basados en aprendizaje automático es que dependen de datos, y, si dichos datos están sesgados, el software producirá resultados sesgados con alta probabilidad.[10]

En concreto, se ha argumentado que las evaluaciones de riesgo COMPAS violan los derechos de protección igualitaria ante la ley de la Decimocuarta Enmienda por motivos de raza, dado que se sostiene que los algoritmos son racialmente discriminatorios, que dan lugar a un trato desigual, y que no están estrictamente ajustados.[11]

Exactitud

[editar]

En 2016, Julia Angwin fue coautora de una investigación de ProPublica sobre el algoritmo.[12]​ Su equipo descubrió que «las personas negras tienen casi el doble de probabilidades que las blancas de ser etiquetadas como de mayor riesgo, pero no reincidir», mientras que COMPAS «comete el error opuesto entre las personas blancas: tienen muchas más posibilidades que las negras de ser etiquetadas como de menor riesgo, pero aun así cometen otros delitos».[13][14]​ También hallaron que únicamente el 20% de las personas que se predijo que cometerían delitos con violencia terminaron haciéndolo realmente.

En una carta, Northpointe criticó la metodología de ProPublica y afirmó que: "[La empresa] no está de acuerdo en que los resultados de su análisis, o las afirmaciones realizadas con base en dicho análisis, sean correctas, ni que reflejen con precisión los resultados de la aplicación del modelo".

Otro equipo de los recursos comunitarios para la justicia, un grupo de expertos en justicia penal, publicó una refutación de las conclusiones de la investigación. Entre varias objeciones, la refutación de CRJ concluyó que los resultados de Propublica: "contradicen varios exhaustivos estudios existentes que concluyen que el riesgo actuarial puede ser predicho sin sesgo racial y/o de género".[15]

Un estudio posterior ha demostrado que el software COMPAS es algo más preciso que individuos con poca o ninguna experiencia en justicia penal, pero menos preciso que grupos de estos individuos.[16]​ Descubrieron que: «En promedio, el 63 % de las veces obtuvieron la respuesta correcta, y la precisión del grupo aumentó al 67% si se agruparon sus respuestas. COMPAS, sin embargo, tiene una precisión del 65%». Investigadores de la Universidad de Houston descubrieron que COMPAS no se ajusta a los criterios de equidad grupal y produce diversos tipos de resultados injustos en grupos demográficos basados en sexo y raza.[17]​ En 2024, un grupo de investigadores del Williams College descubrió que el uso de COMPAS en el condado de Broward condujo a una reducción de la tasa de confinamiento en todos los grupos demográficos, pero que el uso del algoritmo exacerbó las diferencias en el confinamiento entre grupos raciales, profundizando así la disparidad racial.[18]

Véase también

[editar]

Referencias

[editar]
  1. «DOC COMPAS». Consultado el 04-04-2023. 
  2. Sam Corbett-Davies, Emma Pierson, Avi Feller and Sharad Goel (17 de octubre de 2016). «A computer program used for bail and sentencing decisions was labeled biased against blacks. It's actually not that clear.». The Washington Post. Consultado el 1 de enero de 2018. 
  3. Kirkpatrick, Keith (23 de enero de 2017). «It's not the algorithm, it's the data». Communications of the ACM (en inglés) 60 (2): 21-23. doi:10.1145/3022181. 
  4. Northpointe, 2015, p. 27.
  5. Northpointe, 2015, p. 26.
  6. Northpointe, 2015, p. 28.
  7. Northpointe, 2015, p. 29.
  8. Chatziathanasiou, Konstantin (Mayo del 2022). «Beware the Lure of Narratives: "Hungry Judges" Should Not Motivate the Use of "Artificial Intelligence" in Law». German Law Journal (en inglés) 23 (4): 452-464. ISSN 2071-8322. doi:10.1017/glj.2022.32. 
  9. Angelino, Elaine; Larus-Stone, Nicholas; Alabi, Daniel; Seltzer, Margo; Rudin, Cynthia (Junio del 2018). «Learning Certifiably Optimal Rule Lists for Categorical Data». Journal of Machine Learning Research 18 (234): 1-78. arXiv:1704.01701. Consultado el 20 de julio de 2023. 
  10. O'Neil, Cathy (2016). Weapons of Math Destruction. Crown. p. 87. ISBN 978-0-553-41881-1. 
  11. Thomas, C.; Nunez, A. (2022). «Automating Judicial Discretion: How Algorithmic Risk Assessments in Pretrial Adjudications Violate Equal Protection Rights on the Basis of Race». Law & Inequality (en inglés) 40 (2): 371-407. doi:10.24926/25730037.649. 
  12. Angwin, Julia; Larson, Jeff (23 de mayo de 2016). «Machine Bias». ProPublica. Consultado el 21 de noviembre de 2019. 
  13. Yong, Ed (17 de enero de 2018). «A Popular Algorithm Is No Better at Predicting Crimes Than Random People». Consultado el 21 de noviembre de 2019. 
  14. Israni, Ellora (26 de octubre de 2017). «When an Algorithm Helps Send You to Prison (Opinion)». The New York Times. Consultado el 21 de noviembre de 2019. 
  15. Flores, Anthony. «False Positives, False Negatives, and False Analyses». Community Resources for Justice. Consultado el 21 de noviembre de 2019. 
  16. Dressel, Julia; Farid, Hany (17 de enero de 2018). «The accuracy, fairness, and limits of predicting recidivism». Science Advances 4 (1). Bibcode:2018SciA....4.5580D. PMC 5777393. PMID 29376122. doi:10.1126/sciadv.aao5580. 
  17. Gursoy, Furkan; Kakadiaris, Ioannis A. (28 de noviembre de 2022). «Equal Confusion Fairness: Measuring Group-Based Disparities in Automated Decision Systems». 2022 IEEE International Conference on Data Mining Workshops (ICDMW). IEEE. pp. 137-146. ISBN 979-8-3503-4609-1. doi:10.1109/ICDMW58026.2022.00027. 
  18. Bahl, Utsav (22 de mayo de 2024). «Algorithms in Judges' Hands: Incarceration and Inequity in Broward County, Florida». UCLA Law Review (en inglés estadounidense). Consultado el 10 de marzo de 2025. 

Lectura adicional

[editar]