• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Algoritmos consistentemente más precisos que las personas para predecir la reincidencia, estudio dice

    Crédito:CC0 Public Domain

    En un estudio con implicaciones potencialmente de gran alcance para la justicia penal en los Estados Unidos, Un equipo de investigadores de California ha descubierto que los algoritmos son significativamente más precisos que los humanos para predecir qué acusados ​​serán arrestados más tarde por un nuevo delito.

    Al evaluar solo un puñado de variables en un entorno controlado, Incluso los seres humanos no capacitados pueden igualar la habilidad predictiva de los sofisticados instrumentos de evaluación de riesgos. dice el nuevo estudio realizado por académicos de la Universidad de Stanford y la Universidad de California, Berkeley.

    Pero los entornos de justicia penal del mundo real suelen ser mucho más complejos, y cuando un mayor número de factores son útiles para predecir la reincidencia, las herramientas basadas en algoritmos funcionaron mucho mejor que las personas. En algunas pruebas, las herramientas se acercaron al 90% de precisión para predecir qué acusados ​​podrían ser arrestados nuevamente, en comparación con aproximadamente el 60% para la predicción humana.

    "La evaluación de riesgos ha sido durante mucho tiempo parte de la toma de decisiones en el sistema de justicia penal, "dijo Jennifer Skeem, psicólogo que se especializa en justicia penal en UC Berkeley. "Aunque el debate reciente ha planteado cuestiones importantes sobre las herramientas basadas en algoritmos, Nuestra investigación muestra que en contextos que se asemejan a entornos reales de justicia penal, Las evaluaciones de riesgo suelen ser más precisas que el juicio humano para predecir la reincidencia. Eso es consistente con una larga línea de investigación que compara a los humanos con herramientas estadísticas ".

    "Los instrumentos de evaluación de riesgos validados pueden ayudar a los profesionales de la justicia a tomar decisiones más informadas, "dijo Sharad Goel, un científico social computacional en la Universidad de Stanford. "Por ejemplo, Estas herramientas pueden ayudar a los jueces a identificar y potencialmente liberar a las personas que presentan un riesgo mínimo para la seguridad pública. Pero, como cualquier herramienta, Los instrumentos de evaluación de riesgos deben ir acompañados de políticas sólidas y supervisión humana para respaldar una reforma de la justicia penal justa y eficaz ".

    El documento, "Los límites de las predicciones humanas sobre la reincidencia", estaba programado para su publicación el 14 de febrero de 2020, en Avances de la ciencia . Skeem presentó la investigación el 13 de febrero en una rueda de prensa en la reunión anual de la Asociación Estadounidense para el Avance de la Ciencia (AAAS) en Seattle. Wash. Junto a ella estaban dos coautores:Ph.D. graduado Jongbin Jung y Ph.D. candidato Zhiyuan "Jerry" Lin, quienes estudiaron ciencias sociales computacionales en Stanford.

    Los hallazgos de la investigación son importantes mientras los Estados Unidos debaten cómo equilibrar las necesidades de seguridad de las comunidades mientras se reducen las tasas de encarcelamiento que son las más altas de cualquier nación del mundo y que afectan de manera desproporcionada a los afroamericanos y las comunidades de color.

    Si el uso de herramientas avanzadas de evaluación de riesgos continúa y mejora, que podrían refinar decisiones de importancia crítica que los profesionales de la justicia toman a diario:qué personas pueden rehabilitarse en la comunidad, en lugar de en la cárcel? Que podría ir a cárceles de baja seguridad, ¿y cuál a los sitios de alta seguridad? ¿Y qué presos pueden ser puestos en libertad condicional de forma segura para la comunidad?

    Las herramientas de evaluación impulsadas por algoritmos se utilizan ampliamente en los Estados Unidos, en áreas tan diversas como la atención médica, Admisiones bancarias y universitarias. Se han utilizado durante mucho tiempo en la justicia penal, ayudar a los jueces y otras personas a sopesar los datos al tomar sus decisiones.

    Pero en 2018, Los investigadores de la Universidad de Dartmouth plantearon preguntas sobre la precisión de tales herramientas en un marco de justicia penal. En un estudio, ellos reunieron 1, 000 breves viñetas de acusados ​​de delitos, con información extraída de una evaluación de riesgo ampliamente utilizada llamada Perfil de gestión de delincuentes correccionales para sanciones alternativas (COMPAS).

    Cada una de las viñetas incluía cinco factores de riesgo de reincidencia:el sexo del individuo, la edad, cargo criminal actual, y el número de delitos previos de adultos y menores. Luego, los investigadores utilizaron la plataforma Mechanical Turk de Amazon para reclutar a 400 voluntarios para leer las viñetas y evaluar si cada acusado cometería otro crimen dentro de dos años. Después de revisar cada viñeta, A los voluntarios se les dijo si su evaluación predijo con precisión la reincidencia del sujeto.

    Tanto las personas como el algoritmo fueron precisos un poco menos de dos tercios del tiempo.

    Estos resultados, los autores de Dartmouth concluyeron, Ponen en duda el valor de los instrumentos de evaluación de riesgos y la predicción algorítmica.

    El estudio generó una cobertura noticiosa de alto perfil y envió una ola de dudas a través de la comunidad de reforma de la justicia penal de EE. UU. Si las herramientas sofisticadas no fueran mejores que las personas para predecir qué acusados ​​reincidirían, algunos dijeron, entonces tenía poco sentido usar los algoritmos, lo que podría reforzar el prejuicio racial en la sentencia. Algunos argumentaron que decisiones tan profundas deberían ser tomadas por personas, no computadoras.

    Lidiando con el "ruido" en decisiones complejas

    Pero cuando los autores del nuevo estudio de California evaluaron conjuntos de datos adicionales y más factores, llegaron a la conclusión de que las herramientas de evaluación de riesgos pueden ser mucho más precisas que las personas para evaluar el potencial de reincidencia.

    El estudio replicó los hallazgos de Dartmouth que se habían basado en un número limitado de factores. Sin embargo, la información disponible en los entornos judiciales es mucho más rica y, a menudo, más ambigua.

    "Informes de investigación previos a la sentencia, declaraciones de impacto del abogado y la víctima, y la conducta de un individuo añaden complejidad, inconsistente, riesgo irrelevante, e información potencialmente sesgada, "explica el nuevo estudio.

    Hipótesis de los autores:si las evaluaciones de investigación operan en un marco del mundo real, donde la información relacionada con el riesgo es compleja y "ruidosa, "Entonces, las herramientas avanzadas de evaluación de riesgos serían más eficaces que los humanos para predecir qué delincuentes reincidirían".

    Para probar la hipótesis, ampliaron su estudio más allá de COMPAS para incluir otros conjuntos de datos. Además de los cinco factores de riesgo utilizados en el estudio de Dartmouth, agregaron 10 más, incluida la situación laboral, uso de sustancias y salud mental. También ampliaron la metodología:a diferencia del estudio de Dartmouth, en algunos casos, después de cada evaluación, no se les decía a los voluntarios si sus predicciones eran precisas. Esa información no está disponible para los jueces y otras personas del sistema judicial.

    El resultado:los seres humanos se desempeñaron "consistentemente peor" que la herramienta de evaluación de riesgos en casos complejos cuando no tenían retroalimentación inmediata para guiar decisiones futuras.

    Por ejemplo, el COMPAS predijo correctamente la reincidencia el 89% de las veces, en comparación con el 60% de los humanos a los que no se les proporcionó retroalimentación caso por caso sobre sus decisiones. Cuando se proporcionaron múltiples factores de riesgo y fueron predictivos, otra herramienta de evaluación de riesgos predijo con precisión la reincidencia en más del 80% del tiempo, en comparación con menos del 60% para los humanos.

    Los hallazgos parecen respaldar el uso continuo y la mejora futura de los algoritmos de evaluación de riesgos. Pero, como señaló Skeem, estas herramientas suelen tener una función de apoyo. La máxima autoridad recae en los jueces, oficiales de libertad condicional, médicos, comisionados de libertad condicional y otros que dan forma a las decisiones en el sistema de justicia penal.


    © Ciencia https://es.scienceaq.com