Los programas que predicen la reincidencia criminal en los tribunales no son más certeros que los presentimientos de un internauta cualquiera

Un equipo de investigadores ha puesto en evidencia la ineficacia de un algoritmo que los tribunales estadounidenses están usando para evaluar la posibilidad de reincidencia de los presos que buscan salir en libertad.

El problema de la sobrepoblación en las cárceles estadounidenses no es una cuestión menor, así como tampoco lo es la anormalidad del limitado rango racial y social de la población que ocupa la mayoría de las cárceles. Por ejemplo, más de 600.000 personas se encuentran encarceladas aun cuando todavía no han recibido una sentencia y más del 40% de las personas encerradas son afroamericanas, cuando esta minoría sólo representa el 12% de la población estadounidense.

La decisión sobre cuándo un criminal está listo para reinsertarse en la sociedad puede ser difícil, ya que tratar de predecir su posibilidad de reincidencia puede ser una tarea imposible de resolver sin caer en prejuicios. Aun así, es algo que en el sistema judicial se exige a los jueces que tomen en cuenta a la hora de tomar decisiones sobre el futuro de las personas.

Tomando esto en cuenta, los desarrolladores de software han presentado herramientas que prometen asistir en esta toma de decisiones de una forma matemática e imparcial, analizando las características y el historial de las personas. Estos “algoritmos de estimación de riesgos” se están popularizando entre los tribunales norteamericanos y uno de ellos, Compas (Acrónimo en inglés de Gestión de Perfilado de Infractores en Correccionales para Sanciones Alternativas), ha sido objetivo del escrutinio de dos investigadores de la Universidad de Darmouth para evaluar su eficacia.

Compas está en el mercado desde 1998 y, desde entonces, se ha utilizado para tomar decisiones en más de un millón de casos. “El costo de equivocarse es muy alto y se ha llegado al punto en el que hace falta plantearse muy en serio la pregunta de si este algoritmo debería formar parte de estas decisiones”, dijo Hany Farid, co-autor del artículo de investigación que elaboró con su colega Julia Dressel y publicaron en la revista Science.

Cuando Dressel estaba estudiando Ingeniería Informática y Estudios de Género en la universidad, encontró una investigación de ProPublica que demostraba lo prejuiciosos que eran estos algoritmos. Por ejemplo, categorizaban erróneamente a las personas afroamericanas como más propensas a volver a cometer crímenes, mientras que la raza blanca no era considerada un factor de riesgo. Pero lo que llamó la atención de Dressel fue que no se pusiera en duda que estas predicciones fueran más certeras que las humanas. “Por debajo de toda la conversación sobre algoritmos se asumía que las predicciones algorítmicas eran por naturaleza superiores a las predicciones humanas”, explicó.

Para evaluar esto, Dressel y Harid elaboraron una encuesta que publicaron en Amazon Mechanical Turk, donde cualquier internauta podía predecir la posibilidad de reincidencia de una persona sólo tomando en cuenta siete características. Los datos pertenecían a personas reales cuya información personal, incluyendo si había vuelto a cometer crímenes o no, se había hecho pública.

Cada encuestado evaluaba a 50 personas en base a descripciones que tenían el siguiente formato: “El acusado es [género] y tiene [edad]. Ha sido acusado de [cargo criminal]. Este crimen está clasificado como [grado criminal]. Antes había sido condenado a [cargo anterior no-juvenil]. Su registro tiene el cargo de felonía juvenil [cargo de felonía juvenil] y el cargo menor juvenil [cargo menor juvenil]”.

Al revisar los resultados y compararlos con los datos de reincidencia de los acusados, los investigadores descubrieron que las respuestas de los internautas tuvieron una precisión del 67%, superior al 65% del algoritmo. Los investigadores siguieron encuestando a los usuarios, omitiendo datos pero aun así obteniendo resultados similares. Hasta que se dieron cuenta de que lo único que necesitaban para hacer sus predicciones era la edad y la cantidad de condenas previas. “En esencia, si eres joven y tienes muchos antecedentes criminales eres de alto riesgo, si eres viejo y tienes menos antecedentes, eres de bajo riesgo”.

La conclusión del estudio es clara: “No hay ninguna diferencia básica entre aquellas personas que respondieron a una encuesta de Internet a cambio de un dólar y el programa comercial que se utiliza en los tribunales”, dijo Farid. “Si las predicciones de este programa son igual de certeras que las de personas no especializadas que respondieron a una encuesta virtual, creo que los tribunales deberían tomar eso en cuenta cuando estén decidiendo cuánto peso le dan a sus resultados a la hora de tomar decisiones”.

Fuentes

CRIME-PREDICTING ALGORITHMS MAY NOT FARE MUCH BETTER THAN UNTRAINED HUMANS Wired

Mechanical Turkers may have out-predicted the most popular crime-predicting algorithm The Verge

Software ‘no more accurate than untrained humans’ at judging reoffending risk The Guardian

Publicaciones relacionadas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *