• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    La evidencia revela que los algoritmos de evaluación de riesgos muestran un sesgo contra la población hispana

    Crédito:CC0 Public Domain

    La evaluación de riesgos automatizada se ha vuelto cada vez más popular en el sistema de justicia penal, pero un nuevo estudio publicado en el Revisión de derecho penal estadounidense evaluó la precisión, validez y capacidad predictiva de una herramienta de algoritmo de evaluación de riesgos para revelar la injusticia algorítmica contra los hispanos.

    La evaluación de riesgos puede ser una forma objetiva de reducir las tasas de encarcelamiento sin poner en peligro la seguridad pública. y los funcionarios de justicia penal dependen cada vez más del procesamiento algorítmico para informar las decisiones sobre la gestión de los delincuentes de acuerdo con sus perfiles de riesgo. Sin embargo, Existe evidencia alarmante que sugiere que los algoritmos de riesgo están potencialmente sesgados en contra de los grupos minoritarios.

    Lectora de Derecho y Justicia Penal de la Universidad de Surrey, la Dra. Melissa Hamilton utilizó un gran conjunto de datos de acusados ​​antes del juicio que fueron calificados en COMPAS, una herramienta algorítmica de evaluación de riesgos ampliamente utilizada, poco después de sus arrestos para evaluar el impacto de este algoritmo. herramienta específicamente sobre el grupo minoritario hispano.

    El Dr. Hamilton dijo:"Existe la idea errónea de que las herramientas algorítmicas de evaluación de riesgos desarrolladas con macrodatos representan automáticamente una Método coherente y lógico para clasificar a los infractores. Mi investigación sugiere que las herramientas de riesgo pueden ofrecer resultados desiguales para los grupos minoritarios si no tienen en cuenta sus diferencias culturales. El sesgo ocurre cuando las herramientas de riesgo se norman en gran medida en un grupo, por ejemplo muestras blancas, ya que proporcionan predicciones inexactas para los grupos minoritarios como resultado.

    "La evidencia acumulada mostró que COMPAS exhibió consistentemente resultados algorítmicos injustos y sesgados para aquellos de etnia hispana, con estadísticas que presentan validez diferencial y capacidad predictiva diferencial. La herramienta no puede predecir con precisión los resultados reales, posteriormente sobreprediciendo el nivel de riesgo de reincidencia para los acusados ​​hispanos en prisión preventiva ".

    Si bien ha habido avances impresionantes en las ciencias del comportamiento, la disponibilidad de big data y modelado estadístico, Los funcionarios de justicia deben ser conscientes de que se necesita mayor cuidado para garantizar que se realicen estudios de validación adecuados antes del uso de una herramienta algorítmica de riesgo. para confirmar que es justo para su población y subpoblaciones previstas.


    © Ciencia https://es.scienceaq.com