Un nuevo artículo en el Quarterly Journal of Economics descubre que reemplazar ciertas funciones de toma de decisiones judiciales con algoritmos podría mejorar los resultados para los acusados al eliminar algunos de los sesgos sistémicos de los jueces.
Los tomadores de decisiones toman decisiones importantes basadas en predicciones de resultados desconocidos. Los jueces, en particular, toman decisiones sobre si conceden la libertad bajo fianza a los acusados o cómo sentenciar a los condenados. Las empresas ahora utilizan cada vez más modelos basados en aprendizaje automático en decisiones de alto riesgo.
Hay varias suposiciones sobre el comportamiento humano que subyacen al despliegue de dichos modelos de aprendizaje que se manifiestan en las recomendaciones de productos en Amazon, el filtrado de spam del correo electrónico y los textos predictivos en el teléfono.
Los investigadores aquí desarrollaron una prueba estadística de uno de esos supuestos de comportamiento, si los tomadores de decisiones cometen errores sistemáticos de predicción, y desarrollaron métodos adicionales para estimar las formas en que sus predicciones están sistemáticamente sesgadas.
Al analizar el sistema previo al juicio de la ciudad de Nueva York, la investigación revela que una parte sustancial de los jueces cometen errores sistemáticos de predicción sobre el riesgo de mala conducta previa al juicio dadas las características del acusado, incluida la raza, la edad y el comportamiento previo.
La investigación aquí utilizó información de jueces de la ciudad de Nueva York, que son asignados casi al azar a casos definidos en la sala del tribunal asignada por turno. El estudio probó si las decisiones de liberación de los jueces reflejan creencias precisas sobre el riesgo de que un acusado no se presente al juicio (entre otras cosas). El estudio se basó en información sobre 1.460.462 casos de la ciudad de Nueva York, de los cuales 758.027 casos estaban sujetos a una decisión de liberación previa al juicio.
El artículo aquí derivó una prueba estadística para determinar si quien toma decisiones comete errores sistemáticos de predicción y proporcionó métodos para estimar las formas en que las predicciones de quien toma decisiones están sistemáticamente sesgadas. Al analizar las decisiones de libertad previa al juicio de los jueces de la ciudad de Nueva York, el artículo estima que al menos el 20% de los jueces cometen errores sistemáticos de predicción sobre el riesgo de mala conducta del acusado, dadas sus características. Motivado por este análisis, el investigador estimó los efectos de reemplazar a los jueces con reglas de decisión algorítmicas.
El documento encontró que las decisiones de al menos el 32% de los jueces de la ciudad de Nueva York son inconsistentes con la capacidad real de los acusados de pagar una fianza específica y el riesgo real de que no se presenten al juicio.
La investigación aquí indica que cuando se consideran tanto la raza como la edad del acusado, el juez mediano comete errores de predicción sistemáticos en aproximadamente el 30% de los acusados que se le asignan. Cuando se considera tanto la raza del acusado como si fue acusado de un delito grave, el juez mediano comete errores de predicción sistemáticos en aproximadamente el 24 % de los acusados que se le asignan.
Si bien el artículo señala que reemplazar a los jueces con una regla de decisión algorítmica tiene efectos ambiguos que dependen del objetivo del formulador de políticas (¿el resultado deseado es que más acusados se presenten al juicio o uno en el que menos acusados se sientan en la cárcel esperando el juicio?) Parece que reemplazar a los jueces con una regla de decisión algorítmica conduciría a mejoras de hasta un 20% en los resultados de los juicios, medidos en función de la tasa de incomparecencia entre los acusados liberados y la tasa de prisión preventiva.
"Los efectos de reemplazar a los tomadores de decisiones humanos con algoritmos dependen del equilibrio entre si el humano comete errores sistemáticos de predicción basados en la información observable disponible para el algoritmo y si el humano observa alguna información privada útil", dijo el autor principal del artículo, Ashesh. Rambachán.
"El marco econométrico de este artículo permite a los investigadores empíricos proporcionar evidencia directa sobre estas fuerzas en competencia".
Más información: Ashesh Rambachan, Identificación de errores de predicción en datos de observación, Quarterly Journal of Economics (2024). DOI:10.1093/qje/qjae013. academic.oup.com/qje/article-l... /10.1093/qje/qjae013
Información de la revista: Revista Trimestral de Economía
Proporcionado por Oxford University Press