Crédito:CC0 Public Domain
Un nuevo estudio de la Facultad de Derecho de la Universidad de Nueva York y el Instituto AI Now de la Universidad de Nueva York concluye que los sistemas policiales predictivos corren el riesgo de exacerbar la discriminación en el sistema de justicia penal si se basan en "datos sucios".
La aplicación de la ley ha sido objeto de escrutinio en los últimos años por prácticas que resultan en una agresión desproporcionada contra sospechosos pertenecientes a minorías, haciendo que algunos se pregunten si la tecnología, específicamente, software policial predictivo:podría disminuir las acciones discriminatorias.
Sin embargo, un nuevo estudio de la Facultad de Derecho de la Universidad de Nueva York y el Instituto AI Now de la Universidad de Nueva York concluye que los sistemas policiales predictivos, De hecho, corren el riesgo de exacerbar la discriminación en el sistema de justicia penal si se basan en "datos sucios":datos creados a partir de datos defectuosos, con prejuicios raciales, ya veces prácticas ilegales.
Los investigadores ilustran este fenómeno con datos de estudios de caso de Chicago, Nueva Orleans, y el condado de Maricopa de Arizona. Su papel "Datos sucios, Malas predicciones:cómo afectan las violaciones de los derechos civiles a los datos policiales, Sistemas de vigilancia predictiva, y justicia, "está disponible en SSRN.
"Elegimos estos sitios porque encontramos una superposición entre evidencia ampliamente documentada de prácticas policiales corruptas o ilegales y un interés significativo, desarrollo, y el uso actual o anterior de sistemas de vigilancia predictiva. Esto nos llevó a examinar los riesgos de que uno influyera en el otro, "explica Jason Schultz, profesor de derecho clínico y uno de los coautores del artículo.
Los autores, que incluyen a Rashida Richardson, director de investigación de políticas del AI Now Institute, y Kate Crawford, codirector del AI Now Institute, identificaron 13 jurisdicciones (incluidos los estudios de caso antes mencionados) con instancias documentadas de prácticas policiales ilegales o tendenciosas que también han explorado o implementado sistemas policiales predictivos durante los períodos de actividad ilegal.
El Departamento de Policía de Chicago, por ejemplo, estaba bajo investigación federal por prácticas policiales ilegales cuando implementó un sistema computarizado que identifica a las personas en riesgo de convertirse en víctimas o delincuentes en un tiroteo u homicidio. El estudio reveló que el mismo grupo demográfico de residentes que habían sido identificados por el Departamento de Justicia como objetivos del sesgo policial de Chicago se superponía con los que fueron identificados por el sistema predictivo.
Otros ejemplos mostraron riesgos significativos de superposición, pero debido a que el uso gubernamental de sistemas policiales predictivos a menudo es secreto y está oculto a la supervisión pública, el alcance de los riesgos sigue siendo desconocido, según el estudio.
"En jurisdicciones que tienen antecedentes bien establecidos de prácticas policiales corruptas, Existe un riesgo sustancial de que los datos generados a partir de tales prácticas puedan corromper los sistemas computacionales predictivos. En tales circunstancias, una supervisión y una rendición de cuentas públicas sólidas son esenciales, ", Dijo Schultz.
El autor principal, Richardson, agregó:"Aunque este estudio se limitó a jurisdicciones con antecedentes bien establecidos de mala conducta policial y prácticas policiales discriminatorias, sabemos que estas preocupaciones sobre las prácticas y políticas policiales no se limitan a estas jurisdicciones, por lo que es necesario un mayor escrutinio a nivel mundial con respecto a los datos utilizados en las tecnologías de vigilancia policial predictiva ".