• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Por qué la policía debería usar el aprendizaje automático, con mucho cuidado

    Crédito:Kirill_makarov / Shutterstock.com

    El debate sobre la policía que utiliza el aprendizaje automático se está intensificando; en algunos sectores se considera tan controvertido como detener y registrar.

    Detener y registrar es una de las áreas más polémicas de cómo la policía interactúa con el público. Ha sido muy criticado por ser discriminatorio hacia los grupos étnicos minoritarios y negros, y por tener efectos marginales en la reducción del crimen. Del mismo modo, El uso policial de algoritmos de aprendizaje automático ha sido condenado por grupos de derechos humanos que afirman que dichos programas fomentan la discriminación y el perfil racial junto con amenazas a la privacidad y la libertad de expresión.

    Hablando en general, El aprendizaje automático utiliza datos para enseñar a las computadoras a tomar decisiones sin indicarles explícitamente cómo hacerlo. El aprendizaje automático se utiliza con éxito en muchas industrias para generar eficiencia, priorizar el riesgo y mejorar la toma de decisiones.

    Aunque se encuentran en una etapa muy temprana, la policía del Reino Unido está explorando los beneficios de utilizar métodos de aprendizaje automático para prevenir y detectar delitos, y desarrollar nuevos conocimientos para abordar problemas de gran interés público.

    Es cierto que existen problemas potenciales con cualquier uso de algoritmos probabilísticos de aprendizaje automático en la vigilancia. Por ejemplo, cuando se utilizan datos históricos, existen riesgos de que los algoritmos, al hacer predicciones, discriminará injustamente a ciertos grupos de personas. Pero si la policía aborda el uso de esta tecnología de la manera correcta, no debería ser tan controvertido como detener y registrar y podría contribuir en gran medida a que la policía sea más eficaz en la prevención y resolución de delitos.

    Un desafío policial de hoy en día

    Considere el caso de la reciente preocupación pública sobre los videos musicales de ejercicios y su contenido lírico único que supuestamente se usa para inspirar, incitar y glorificar la violencia grave.

    La música de taladro tiene, en los ultimos años, se extendió a las principales ciudades del Reino Unido. Las plataformas de redes sociales como YouTube e Instagram tienen, al mismo tiempo, presenció un aumento significativo en los videos musicales de ejercicios subidos en línea. Muchos de los videos, que cuentan con raperos masculinos con máscaras faciales, usando violento, lenguaje provocativo y nihilista, recibir millones de visitas.

    El oficial de policía de mayor rango en el Reino Unido, Comisionada Cressida Dick, ha criticado públicamente los videos musicales de ejercicios, afirmando que se utilizan para dar glamour al asesinato y la violencia grave y aumentar las tensiones entre bandas callejeras rivales.

    Mucha gente no está de acuerdo con que la policía culpe a la música de entrenamiento. Los partidarios de este género musical argumentan que el asesinato y la violencia no son un fenómeno nuevo, y no debe considerarse causal a los artistas instructores que rapean sobre las duras realidades de sus experiencias vividas. Algunos académicos también están preocupados porque el enfoque policial actual "está conduciendo a la criminalización de las actividades cotidianas" y que "los jóvenes de entornos pobres ahora se están categorizando como alborotadores por el mero hecho de hacer un video musical".

    Sin embargo, a la policía, este es un tema importante:tienen la responsabilidad legal de proteger la vida y gestionar el riesgo para el público. Como tal, detectar contenido en línea dañino que, por ejemplo, puede contener una amenaza para la vida de una persona, es un problema policial operacional contemporáneo, y un problema tecnológico insoluble que la policía debe poder resolver.

    Desarrollar herramientas de aprendizaje automático

    Los agentes de policía que visualizan manualmente grandes cantidades de videos para identificar y distinguir el contenido dañino y delictivo de la expresión creativa legítima es enormemente ineficaz. Como tal, debería estar automatizado. Sí, Actualmente existen importantes desafíos técnicos para que los algoritmos de aprendizaje automático comprendan ese contenido lírico único. Pero este tipo de problema, para investigadores, encaja perfectamente en el creciente campo del aprendizaje automático del procesamiento del lenguaje natural. Este es un campo que utiliza técnicas computacionales para comprender el lenguaje y el habla humanos.

    Mas ampliamente, Hay una falta de investigación sobre el impacto social de la policía utilizando el aprendizaje automático para prevenir y detectar delitos. Así que mientras tanto, Para evitar controversias, la policía no debe confiar en modelos opacos de aprendizaje automático de "caja negra" que no se han probado en un contexto de vigilancia operativa para automatizar el análisis de grandes cantidades de datos. Los modelos de caja negra son, con razón, controvertidos porque no muestran su lógica interna ni los procesos utilizados para tomar decisiones.

    Una mejor manera de avanzar es que la policía trabaje con expertos y cree modelos de aprendizaje automático diseñados específicamente para fines policiales que hagan un mejor uso de los datos para abordar los problemas. como los inherentes a los videos musicales de ejercicios. Policía de Durham, por ejemplo, Recientemente he trabajado con científicos de la Universidad de Cambridge para desarrollar una herramienta algorítmica de evaluación de riesgos que ayude a tomar decisiones sobre delitos futuros cuando la policía arresta a una persona.

    De este modo, Las herramientas de aprendizaje automático se pueden establecer sobre principios científicos ampliamente aceptados, con un nivel de transparencia que se puede utilizar para impulsar el apoyo público de formas que la detención y la búsqueda no han podido lograr.

    Preocupaciones por la transparencia

    En un informe reciente, El think tank británico de defensa y seguridad RUSI planteó preocupaciones más específicas sobre el concepto de que la policía utilice algoritmos de aprendizaje automático para hacer predicciones y respaldar la toma de decisiones. Notablemente, habla del concepto de "transparencia algorítmica" y de la dificultad que tienen los no expertos para comprender cómo se utilizan modelos estadísticos complejos para tomar decisiones.

    El informe hace un punto importante:si el aprendizaje automático se utiliza en cualquier forma de entorno de justicia penal, los no expertos deben poder comprender cómo se han tomado las decisiones y determinar si los resultados son precisos y justos.

    Todas las cosas consideradas, el director de la policía utiliza el aprendizaje automático para identificar riesgos y respaldar la toma de decisiones, no es, y no debe, ser considerado como una nueva forma de totalitarismo que busca erosionar los derechos democráticos, prevenir la libertad de expresión, marginar a los grupos étnicos minoritarios y negros.

    Dado que el aumento de la delincuencia en el Reino Unido es ahora el problema más importante al que se enfrenta el público británico después del Brexit, aprendizaje automático:dentro de una ética, marco normativo y de confianza pública:debería tener un lugar en la caja de herramientas policial moderna para prevenir el crimen y proteger al público.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com