Los hallazgos del estudio han generado preocupaciones sobre la imparcialidad y precisión de los algoritmos de evaluación de riesgos, que se utilizan cada vez más para tomar decisiones sobre la liberación preventiva, la sentencia y la libertad condicional. Los críticos argumentan que estos algoritmos pueden perpetuar las disparidades raciales y étnicas en el sistema de justicia penal al sobreestimar sistemáticamente el riesgo de reincidencia para ciertos grupos de personas.
En respuesta a estas preocupaciones, algunas jurisdicciones han comenzado a tomar medidas para abordar el sesgo algorítmico. Por ejemplo, California aprobó recientemente una ley que exige que los algoritmos de evaluación de riesgos sean auditados para detectar sesgos y que prohíbe el uso de algoritmos que discriminen por motivos de raza o etnia. Otras jurisdicciones están considerando medidas similares para garantizar que los algoritmos de evaluación de riesgos se utilicen de manera justa y equitativa.
Los hallazgos del estudio son un recordatorio de los peligros potenciales de utilizar algoritmos para tomar decisiones sobre la vida de las personas. Es importante considerar cuidadosamente el potencial de sesgo y discriminación al desarrollar y utilizar estos algoritmos, y tomar medidas para mitigar estos riesgos.