Crédito:CC0 Public Domain
En un artículo publicado por el Ciencias del comportamiento y derecho diario, expertos de la Universidad de Surrey analizan críticamente el uso creciente de herramientas algorítmicas de evaluación de riesgos, que actúan como una forma de evidencia científica experta en un número creciente de casos penales.
La revisión argumenta que debido a varias cuestiones, como los sesgos de los desarrolladores y la evidencia estadística débil del rendimiento predictivo de la IA, los jueces deben actuar como guardianes y examinar de cerca si tales herramientas deben usarse en absoluto.
El documento describe tres pasos que los jueces deben considerar:
Dra. Melissa Hamilton, autor del artículo y Lector de Derecho y Justicia Penal en la Facultad de Derecho de la Universidad de Surrey, dijo:"Estas herramientas emergentes de inteligencia artificial tienen el potencial de ofrecer beneficios a los jueces en la sentencia, pero se debe prestar mucha atención a si son confiables. Si se usan descuidadamente, estas herramientas perjudicarán a los acusados en el extremo receptor ".