• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    Ayudar a la policía a tomar decisiones de custodia utilizando inteligencia artificial

    Crédito:Rene Böhmer en Unsplash

    La policía en la "primera línea" de los juicios difíciles basados ​​en el riesgo está probando un sistema de inteligencia artificial entrenado por criminólogos de la Universidad de Cambridge para brindar orientación utilizando los resultados de cinco años de antecedentes penales.

    "Son las 3 de la mañana del sábado por la mañana. El hombre frente a usted ha sido sorprendido en posesión de drogas. No tiene armas, y ningún registro de delitos violentos o graves. ¿Dejas que el hombre salga bajo fianza policial a la mañana siguiente, o mantenerlo encerrado durante dos días para asegurarse de que venga a la corte el lunes? "

    El tipo de escenario que describe el Dr. Geoffrey Barnes, ya sea para detener a un sospechoso bajo custodia policial o liberarlo bajo fianza, ocurre cientos de miles de veces al año en todo el Reino Unido. El resultado de esta decisión podría ser importante para el sospechoso, para la seguridad pública y para la policía.

    "Los agentes de policía que toman estas decisiones de custodia tienen mucha experiencia, "explica Barnes." Pero todos sus conocimientos y habilidades policiales no pueden decirles lo que más necesitan saber sobre el sospechoso:¿qué probabilidades hay de que cause un daño mayor si son liberados? Este es un trabajo que realmente asusta a las personas:están en la primera línea de la toma de decisiones basada en el riesgo ".

    Barnes y el profesor Lawrence Sherman, quien dirige el Centro Jerry Lee de Criminología Experimental en el Instituto de Criminología de la Universidad de Cambridge, han estado trabajando con las fuerzas policiales de todo el mundo para preguntar si la IA puede ayudar.

    "Imagine una situación en la que el oficial tiene el beneficio de cien mil, y más, ¿Experiencias previas reales de decisiones de custodia? ", dice Sherman." Ninguna persona puede tener esa cantidad de experiencias, pero una máquina puede ".

    A mediados de 2016, con financiación de Monument Trust, los investigadores instalaron la primera herramienta de inteligencia artificial del mundo para ayudar a la policía a tomar decisiones de custodia en la policía de Durham.

    Llamada Herramienta de riesgo de evaluación de daños (HART), la tecnología basada en IA utiliza 104, 000 historias de personas previamente arrestadas y procesadas en las suites de custodia de Durham en el transcurso de cinco años, con un seguimiento de dos años para cada decisión de custodia. Usando un método llamado "bosques aleatorios", el modelo analiza un gran número de combinaciones de 'valores predictores', la mayoría de los cuales se centran en el historial de delitos del sospechoso, así como la edad, género y área geográfica.

    "Estas variables se combinan de miles de formas diferentes antes de llegar a una conclusión final prevista, "explica Barnes." Imagine a un ser humano que tiene esta cantidad de variables en la cabeza, y hacer todas estas conexiones antes de tomar una decisión. Nuestras mentes simplemente no pueden hacerlo ".

    El objetivo de HART es categorizar si en los próximos dos años un delincuente tiene alto riesgo (es muy probable que cometa un nuevo delito grave como asesinato, violencia agravada, delitos sexuales o robo); riesgo moderado (posibilidad de cometer un delito no grave); o de bajo riesgo (es poco probable que cometa algún delito).

    "La necesidad de una buena predicción no se trata solo de identificar a las personas peligrosas, "explica Sherman." También se trata de identificar a las personas que definitivamente no son peligrosas. Por cada caso de un sospechoso bajo fianza que mata a alguien, hay decenas de miles de sospechosos no violentos que están encerrados más tiempo del necesario ".

    La policía de Durham quiere identificar el grupo de 'riesgo moderado', que representa poco menos de la mitad de todos los sospechosos según las estadísticas generadas por HART. Estas personas podrían beneficiarse de su programa Checkpoint, que tiene como objetivo abordar las causas profundas de los delitos y ofrecer una alternativa al enjuiciamiento que esperan que convierta los riesgos moderados en riesgos bajos.

    "Son agujas y montones de heno, "dice Sherman". Por un lado, las peligrosas 'agujas' son demasiado raras para que alguien las conozca con la frecuencia suficiente para detectarlas a la vista. En el otro, el 'heno' no representa una amenaza y mantenerlos bajo custodia desperdicia recursos e incluso puede hacer más daño que bien ". Actualmente se está llevando a cabo un ensayo controlado aleatorio en Durham para probar el uso de Checkpoint entre los que se pronostica como de riesgo moderado.

    HART también se está actualizando con datos más recientes, un paso que Barnes explica que será una parte importante de este tipo de herramienta:"Un tomador de decisiones humano podría adaptarse inmediatamente a un contexto cambiante, como la priorización de ciertos delitos, como los delitos de odio, pero no necesariamente se puede decir lo mismo de una herramienta algorítmica. Esto sugiere la necesidad de un escrutinio cuidadoso y constante de los predictores utilizados y de actualizar con frecuencia el algoritmo con datos históricos más recientes ".

    Ninguna herramienta de predicción puede ser perfecta. Un estudio de validación independiente de HART encontró una precisión general de alrededor del 63%. Pero, dice Barnes, el verdadero poder del aprendizaje automático no proviene de evitar ningún error, sino de decidir qué errores desea evitar más.

    "No todos los errores son iguales, "dice Sheena Urwin, jefe de justicia penal en la Policía de Durham y graduado del Programa de Maestría en Estudios Ejecutivos de Policía del Instituto de Criminología. "El peor error sería si el modelo pronostica bajo y el infractor resulta alto".

    "En consulta con la policía de Durham, Creamos un sistema que tiene una precisión del 98% para evitar esta forma de error más peligrosa:el 'falso negativo':el delincuente que se predice que está relativamente seguro. pero luego comete un delito violento grave, "agrega Barnes." La IA es infinitamente ajustable y al construir una herramienta de IA es importante sopesar la ruta más éticamente apropiada a seguir ".

    Los investigadores también enfatizan que la salida de HART es solo para orientación, y que la decisión final es la del oficial de policía a cargo.

    "HART usa los datos de Durham y, por lo tanto, solo es relevante para delitos cometidos en la jurisdicción de la policía de Durham. Esta limitación es una de las razones por las que estos modelos deben considerarse como un apoyo a los tomadores de decisiones humanos, no reemplazándolos, "explica Barnes." Estas tecnologías no son, de ellos mismos, balas de plata para la aplicación de la ley, y tampoco son maquinaciones siniestras de un supuesto estado de vigilancia ".

    Algunas decisiones dice Sherman, tienen un impacto demasiado grande en la sociedad y el bienestar de las personas como para que se vean influenciados por una tecnología emergente.

    Donde las herramientas basadas en IA brindan una gran promesa, sin embargo, es utilizar la previsión del nivel de riesgo de los infractores para un 'triaje' eficaz, como describe Sherman:"El servicio de policía está bajo presión para hacer más con menos, para orientar los recursos de manera más eficiente, y para mantener la seguridad del público.

    "La herramienta ayuda a identificar las pocas 'agujas en el pajar' que representan un gran peligro para la comunidad, y cuya publicación debería estar sujeta a niveles adicionales de revisión. Al mismo tiempo, una mejor clasificación puede llevar a que los infractores adecuados reciban decisiones de liberación que los beneficien tanto a ellos como a la sociedad ".


    © Ciencia https://es.scienceaq.com